Albert Einstein torna in vita grazie all’Intelligenza Artificiale
C’è un trend che sta prendendo molto piede su Internet e che in realtà proviene dal mondo dell’Intelligenza Artificiale.
Questo trend è partito come qualcosa di divertente e, a tratti, anche commovente…
Ma si sta trasformando in qualcosa di molto più serio di quanto si fosse previsto.
Ora, di che trend stiamo parlando?
Stiamo parlando di “riportare in vita le persone”.
Naturalmente non stiamo parlando di riportare effettivamente in vita le persone, ma di prendere un ritratto di una persona deceduta e di darla in pasto ad un algoritmo di machine learning per poi animarla come se questa fosse viva.
Prima questo trend è partito come modo per, appunto, riportare in vita delle persone decedute…
E sembrava anche un trend molto divertente…
Ma se bazzichi il mondo dell’Intelligenza Artificiale come noi (che ci viviamo dentro), sai bene che NULLA di ciò che esce da questo mondo è “solo” divertente.
Infatti, alcuni ricercatori dell’MIT hanno voluto approfondire la questione e hanno fatto delle scoperte che potrebbero impattare molto sullo stile di vita degli esseri umani da qui ai prossimi anni.
Parleremo di questo e di tanto altro in questo articolo.
1. Albert Einstein torna ad insegnare grazie all’Intelligenza Artificiale
Ebbene sì, i ricercatori dell’MIT sono riusciti a creare degli avatar intelligenti (anche di persone decedute) con cui interagire grazie ai modelli di Intelligenza Artificiale.
Ma prima di spiegare come sia possibile, facciamo un passo indietro, partendo dal concetto di GAN (General Adversarial Network).
È una tecnologia che ha spopolato negli ultimi anni – nata nel 2014 – e che – detto in termini semplici – permette di generare contenuti che “non esistono”.
Si allena prima il modello su un dataset e si genera un nuovo contenuto che, sostanzialmente, non esisteva prima.
Per esempio, un modello di GAN viene trainato su un dataset con immagini di gatti e, alla fine del training, quel modello sarà capace di generare l’immagine di un gatto che prima non esisteva.
Un esempio lo abbiamo con il sito Web ThisPersonDoesNotExist che, sfruttando la stessa tecnologia, genera automaticamente immagini di persone che, come dice il nome stesso del sito, non esistono.
Ora, questi sistemi sono diventati strumenti di divertimento, perché comunque è interessante vedere l’Intelligenza Artificiale che crea contenuti…
Ma come abbiamo detto, non tutto ciò che viene dal mondo dell’Intelligenza Artificiale è per forza divertente.
Infatti, ad oggi questa tecnologia viene utilizzata per ridare “vita e movimento” a immagini di persone decedute – trend che è spopolato sulle piattaforme social.
Unendo anche altre tecnologie di Intelligenza Artificiale, i ricercatori dell’MIT hanno permesso ad Albert Einstein – o perlomeno al suo avatar – di tornare ad insegnare fisica agli studenti.
Ma Albert Einstein che torna ad insegnare è solo la punta dell’iceberg.
Grazie a questa tecnologia è possibile anche creare degli avatar per i medici che devono visitare un paziente online, per alleviare la paura e il senso di tensione del paziente stesso.
E non mancano gli aspetti negativi…
Al momento queste tipologie di algoritmi possono creare dei problemi sia a livello legale che morale, pertanto esistono altri tipi di algoritmi di deep learning che stanno cercando di contrastarli.
2. L’Intelligenza Artificiale può evolversi fino ad ‘imitare’ il cervello umano
Ancora una volta dall’MIT ci arriva un nuovo studio che rivela che il machine learning sta iniziando ad assomigliare molto al cervello umano.
Fino a poco tempo fa, grandi menti del calibro di Steven Pinker e Noam Chomsky erano convinte che l’Intelligenza Artificiale e il machine learning non potessero portare alcun contributo alle scienze cognitive e allo studio del cervello.
Ma con le ultime scoperte, forse le grandi menti dovranno ricredersi.
L’Intelligenza Artificiale conversazionale continua a migliorare e il suo funzionamento si sta avvicinando sempre di più al comportamento del cervello umano.
Questo perché riesce a comprendere il linguaggio e a generare risposte pertinenti, ma la stessa cosa vale per l’Intelligenza Artificiale applicata alla visual recognition.
Per fare un esempio, Instagram usa la visual recognition per descrivere le immagini a chi ha problemi di vista e Google usa la famosa reverse image research per cercare immagini partendo da altre immagini.
Un altro esempio importante viene da Clearview AI, che usa l’Intelligenza Artificiale per supportare le forze dell’ordine a trovare persone scomparse tramite i social media.
Alla luce di questo, un ricercatore del MIT ha cercato di analizzare il funzionamento delle reti conversazionali di maggior successo per comprendere se ci fossero alcune somiglianze con il funzionamento del cervello umano.
I modelli in esame avevano come obiettivo quello di prevedere la parola successiva all’interno di una frase, oppure di trovare una parola mancante all’interno di un contesto.
Allo stesso modo, per fare una comparazione, i ricercatori hanno analizzato le reazioni neurali di un gruppo di persone che leggevano delle frasi con lo stesso obiettivo dei modelli.
Questo perché la previsione è una componente fondamentale del funzionamento del nostro cervello e del processamento del linguaggio.
Infatti, tutti abbiamo, almeno una volta nella vita, fatto il gioco di interpretare una frase scritta male o dove mancano delle lettere.
Ecco, questa è un’attività in cui il nostro cervello si comporta molto bene ed è in grado di processare, attraverso le funzionalità del cervello, la frase intera per poi generare o sostituire le parole o le lettere mancanti.
In questo studio alcuni modelli prevedevano i dati neurali con un ottimo grado di precisione, avvicinandosi molto alle capacità del cervello umano, in special modo tutti gli algoritmi basati sul GPT.
Contemporaneamente si è scoperto che questi modelli ottenevano risultati peggiori quando dovevano lavorare su testi più grandi, cosa che succede con quasi tutti i modelli conversazionali, come i chatbot che tendono a perdere colpi quando hanno a che fare con conversazioni lunghe.
Successivamente i ricercatori hanno fatto dei test sui modelli utilizzando dei benchmark come, ad esempio, il rispetto della grammatica e il giudizio critico, ma nessuno dei modelli ha raggiunto un livello di precisione come con le previsioni.
Questo significa che la previsione ha un’importanza non trascurabile nel funzionamento del cervello, e ci vorranno ancora altri studi per comprendere come sia possibile che alcuni modelli rappresentino bene il cervello umano mentre altri no.
Questo è dovuto in parte al fatto che i modelli utilizzano spesso le cosiddette black-box, le cui funzioni spesso sono così complesse che neanche chi le ha create riesce a comprendere bene a fondo come le variabili si relazionino fra loro.
E alla fine i ricercatori hanno scoperto che più un modello assomiglia al cervello umano, più è capace di replicarne il comportamento.
Tanto che secondo i ricercatori, questi modelli possono essere utilizzati per prevedere in qualche modo il comportamento umano.
Tutto questo ci porta a due conclusioni.
La prima è che stiamo osservando una vera e propria evoluzione nel campo dell’Intelligenza Artificiale.
Questo perché nessuno intenzionalmente programma questi modelli affinché si comportino come il cervello, ma nel corso del tempo pian piano stiamo avvicinandoci a questo.
Infatti, nel paper pubblicato, si riporta che la community del Natural Language Processing è la prima partecipe di questa evoluzione, perché prendono ciò che funziona di un modello, lo mutano e lo ricombinano in altre architetture – un po’ come avviene nell’evoluzione.
Sì, sembra una parola grossa, ma la direzione che stiamo prendendo è proprio questa.
La seconda conclusione è che gli stessi modelli di machine learning possono essere utilizzati come rappresentazione del cervello umano, su cui sarà possibile fare direttamente in futuro degli studi cognitivi.
3. Davide vs. Golia: un “piccolo” algoritmo batte il mastodontico GPT-3
Il 2021 è stato l’anno dedicato a quelli che alcuni esperti definiscono Monster AI Models, cioè a modelli con un numero di parametri enorme (anche centinaia di miliardi) e che hanno fatto molto parlare.
Si è partiti con il GPT-3 di OpenAI nel 2020, il WuDao 2.0 di quest’estate e a seguire il Megatron-Turing di Microsoft e NVidia – modelli di Natural Language Processing atti a processare e generare testi.
Insomma, se volessimo fare una battuta, è stata una gara a chi aveva l’algoritmo più grosso, con dataset sempre più ampi, con training sempre più grandi, per raggiungere un livello maggiore sia di risultati che di modello.
Questo fa pensare che “più grande è l’algoritmo e meglio è”.
Certo, finora è sempre stato così: più grande è il dataset e migliore è il risultato…
Il problema è che con dataset così grandi e training così importanti, si creano dei problemi nel comprendere il processo decisionale dell’algoritmo.
Di fatto, stiamo parlando di un livello di imperscrutabilità pari a quello di una black-box.
Qui si sbizzarriscono sia i critici che gli esperti, perché le zone oscure sono il terreno fertile per i bias.
Per esempio, il GPT-3 analizzava dati provenienti dalla rete e per questo ha “maturato” una forma di razzismo nella generazione di testi.
Un altro problema deriva dalla potenza computazionale richiesta agli hardware per far girare questi algoritmi.
Di fatto, anche modelli così importanti devono avere un tempo di inferenza, cioè un tempo in cui elaborano una risposta che sia accettabile per l’utente finale.
Noi stessi abbiamo iniziato a lavorare con il GPT-2 prima e il GPT-3 dopo, e abbiamo visto la differenza, anche a livello computazionale.
Le risposte del GPT-2, grazie all’hardware che abbiamo, sono molto veloci, mentre un GPT-3 su determinate macchine ci impiega anche 20 minuti per dare una risposta.
Sfidando questa “legge dei grandi numeri”, DeepMind ha provato ad andare in controtendenza.
Ha costruito un modello più grande del GPT-3, chiamato Gopher, per poi costruire un modello più piccolo: 7 miliardi di parametri rispetto ai 175 del GPT-3.
Questo modello si chiama RETRO e, pur essendo più piccolo, sono riusciti a dimostrare che le performance di questo modello potevano avere la stessa qualità e lo stesso livello di ciò che emergeva dal GPT-3.
RETRO sta prendendo piede anche perché riesce a fare una ricerca del contenuto tra trilioni di spezzoni di testo all’interno di un dataset, per capire come può migliorare le previsioni in base ai passaggi che ha eseguito.
Ecco, poter vedere come ragiona e quali sono i passaggi logici all’interno degli spezzoni, rende più facile spiegare come è arrivato alla conclusione finale.
E, capendo il percorso, si può migliorare il percorso ed effettuare un retraining per migliorare il ragionamento che li ha portati a quel livello.
È un passo molto importante che fa la differenza fra eseguire un GPT-3 senza analizzare il processo logico e comprendere tutti i passaggi.
Questo permetterà ai creatori di Intelligenze Artificiali di poter ottenere risultati migliori senza privarci delle spiegazioni.