Choose Colour style

Parliamo di un argomento molto pregnante in questo periodo, sia per il mondo dell’Intelligenza Artificiale che per il pianeta Terra.

Pochi giorni fa è uscito un articolo su Quartz che lascia degli spunti di ragionamento molto interessanti…

Secondo questo articolo, i modelli di Intelligenza Artificiale rappresentano una delle cause più grosse dell’inquinamento globale.

Infatti, secondo uno studio dell’MIT, un algoritmo Transformers con 213 milioni di parametri lascia un’impronta di carbonio pari a 5 automobili americane lungo tutto il loro periodo di vita, cioè da quando vengono accese fino a quando vengono rottamate.

Ora, l’autore dell’articolo dà diversi motivi per cui i modelli di Intelligenza Artificiale “consumino” così tanto.

Vediamoli uno per uno e analizziamoli.

1. I training non sono abbastanza efficienti.

Nel senso che devono consumare un ammontare spropositato di risorse per essere davvero funzionanti.

Per iper semplificare il discorso, una volta creato l’algoritmo, questo deve “leggere” una serie di dati – che noi chiamiamo dataset – a cicli ripetuti finché non è funzionante e pronto ad essere implementato.

La metafora del ciclo ripetuto è quella del bambino che deve visualizzare più volte la stessa parola per riuscire a leggerla correttamente.

Secondo uno studio fatto sull’algoritmo BERT di Google AI, quest’ultimo ha bisogno di 3,3 miliardi di parole per essere effettivamente funzionante.

Mentre un bambino di cinque anni ha bisogno di 45 milioni di parole per imparare a leggere.

Il rapporto è di circa 3000:1.

Ora, siamo d’accordo che i training sono dispendiosi a livello energetico, mentre la nostra mente sa risolvere problemi con un bassissimo dispendio di energia.

Ma il paragone con il bambino non è molto adatto in questo momento…

Partiamo dal presupposto che un modello di Intelligenza Artifiiale deve imparare un linguaggio che non è nelle sue corde.

Il linguaggio umano è complesso, perché ha un contesto e una grammatica tutta sua e un bambino è motivato ad impararlo anche attraverso le continue interazioni con altri esseri umani.

L’Intelligenza Artificiale, dall’altra parte, parla in “1” e “0” nella sua versione più semplice e deve apprendere il linguaggio umano da testi che non sono nel suo know-how.

Il paragone con un bambino è problematico perché sminuisce l’efficienza dei modelli di Intelligenza Artificiale.

Anche se l’intelligenza Artificiale ha iniziato la sua evoluzione negli anni ’50, siamo ancora all’inizio.

Gli algoritmi devono migliorare, così come gli hardware su cui vengono fatti girare, e la quantità di dati aumenterà nel corso del tempo.

Alla fine, la logica dei suoi ragionamenti sta nella matematica, ma anche quella ha delle riserve.

Per fare un esempio semplice: se vogliamo elevare al quadrato il numero 100, sappiamo che è sufficiente aggiungere 2 zeri.

Se vogliamo fare la stessa cosa con il computer – considerato anche che ragionano per numeri binari – non possiamo usare questo “trucchetto”, e le somme da fare sono numerose.

Se lo stesso problema lo facciamo risolvere all’Intelligenza Artificiale, allora dobbiamo insegnarle che cos’è il quadrato di un numero.

Molto probabilmente dovremmo darle in pasto una quantità enorme di quadrati di numeri prima che riesca a imparare il calcolo con una percentuale di affidabilità vicina al 100%.

Questo significa che il training sarà complesso e, pertanto, il dispendio energetico sarà importante.

La cosa importante è valutare sempre il rapporto fra i costi del training e i benefici del modello generato:

  • Quanto mi costa implementare un modello di Intelligenza Artificiale da un punto di vista del training?
  • Il modello generato che benefici mi può dare?

Questo è un calcolo importante da fare perché, come ben sappiamo, i modelli creati con l’intelligenza Artificiale possono essere replicati.

Ovviamente, se io vado a focalizzarmi sui costi del training, questo è sì dispendioso, ma analizzando i benefici diretti e indiretti, lo scenario cambia.

Ora, ci farebbe molto comodo dire che “l’Intelligenza Artificiale vale sempre il costo”, ma la questione è un po’ più complessa.

Il rapporto costi-benefici va sempre valutato.

Nella maggior parte dei casi, se bisogna implementare un modello adeguato di Intelligenza Artificiale, prima va fatta l’analisi di fattibilità per verificare se il beneficio vale il costo.

2. Trovare la struttura giusta per il training richiede troppo tempo e troppe risorse

Per fare il training dell’algoritmo si usa una struttura che è molto simile ad un cervello umano.

Ma non è detto che una singola struttura sia quella ottimale per eseguire il training.

Quindi vengono fatti dei test su più strutture…

Riprendendo BERT di Google, fare un solo training consuma carbonio quanto un passeggero su un volo andata e ritorno da New York a San Francisco (4616km secondo Google Maps).

Se parliamo di fare diversi test per trovare la struttura giusta, allora il consumo schizza verso l’altro: 315 passeggeri delle stesso volo.

Ma è una cosa così bizzarra?

Prendiamo per esempio una macchina moderna super efficiente che fa 50km con un litro di benzina.

Ecco, quanta benzina avrà dovuto consumare la macchina per fare tutti i test scientifici per portare il motore a quell’efficienza?

I test si fanno sempre, l’Intelligenza Artificiale non fa eccezione.

L’Intelligenza Artificiale è il futuro, e i miglioramenti arriveranno anche in futuro.

Qualsiasi innovazione avrà sempre qualcosa che non va perché è così che funziona l’evoluzione.

È giusto farlo notare per migliorarlo, ma non per demonizzarlo in toto.

Demonizzare l’Intelligenza Artificiale non ha senso perché ha portato dei benefici, e forse bisognerebbe analizzare quelli e poi ottimizzare i danni, anche solo teorici.

3. Gli algoritmi sono molto più grandi e rilasciano molto più calore di quanto necessario

Per trainare GPT-3 ci sono voluti 175 miliardi di dati.

Secondo i ricercatori, anche se la rete è molto grande, e l’algoritmo è altrettanto accurato…

Solo una parte di essi è effettivametne utile.

Per di più i modelli di AI vengono trainati su degli hardware specializzati, che generano più calore del normale.

E le strumentazioni a basso impatto ambientale hanno dei costi tanto elevati che sono veramente poche le aziende che possono permettersele.

Ora, tutto questo è tecnicamente vero.

Nel corso della nostra carriera abbiamo bruciato almeno 1-2 PC per fare i training.

Ma la tecnologia è in continua evoluzione.

I chip e i microchip saranno sempre più ottimizzati per far funzionare le Intelligenze Artificiali.

CPU e GPU sono solo un passo, mentre adesso si parla di TPU (Tensor Process Unit) e NPU (Neural Process Unit).

I training di 10 anni fa duravano settimane, adesso durano pochi minuti.

E con un training di qualche ora si ottengono risultati imparagonabili.

Perciò, da qui ai prossimi anni ci saranno senza dubbio dei miglioramenti.

Per di più, anche considerato che il training viene fatto su una macchina sola, poi può essere replicato su altre macchine.

Il beneficio di un modello replicabile è enorme rispetto alla minima dispersione di calore del training.

Le previsioni NON sono tutte negative

Secondo uno studio di Capgemini, l’Intelligenza Artificiale contribuirà fino al 45% dell’Accordo di Parigi per il 2030 e ridurrà le emissioni di gas serra del 15% entro i prosismi anni.

Insomma, anche se l’Intelligenza Artificiale lascia un’impronta di carbonio, ha un impatto benefico sull’ambiente proprio perché aiuta a ridurra l’impatto che danno gli esseri umani.

L’invito è proprio quello di no nvedere per forza tutto negativo – come siamo capaci noi.

C’è ancora tanto da scoprire e da imparare.

E per gli imprenditori all’ascolto: è ora di salire sul treno dell’Intelligenza Artificiale.

Potete farlo contattandoci al numero verde 800.270.021