Intelligenza Artificiale Senziente: tutta la verità secondo gli esperti
Intelligenza Artificiale Senziente: che cosa c’è di vero?
Questa frase ormai sarà giunta anche alle tue orecchie, in un modo o nell’altro.
Giornali, blog, testate online, influencer di Instagram e Tik Tok, e perfino riviste di musica.
Chiunque ha voluto parlate di un algoritmo di Intelligenza Artificiale di Google diventato tutto ad un tratto senziente…
Ma a quanto pare pochissimi l’hanno fatto osservando questa storia con gli occhi di uno specialista.
Molti si sono fatti rapire dai sensazionalismi, dai titoli altisonanti di giornale e non hanno fatto altro che replicare frasi e concetti.
Alcuni si sono limitati a tradurre i contenuti delle testate americane…
Altri invece si sono concessi di scrivere delle vere e proprie blasfemie concettuali.
Insomma, c’è stata molta più confusione di quella che ha generato.
Infatti, a quanto pare pochi hanno letto con la dovuta attenzione l’intervista che ha dato vita a questo putiferio…
E ancora meno hanno letto con altrettanta attenzione il dialogo che c’è stato fra l’ingegnere di Google e questa intelligenza artificiale “senziente”.
Perché se avessero approfondito un po’ le loro ricerche, forse avrebbero scoperto l’amara verità dietro questa storia.
Un’Intelligenza Artificiale è diventata senziente
Facciamo un passo indietro per spiegare che cos’è accaduto.
1) È uscito un articolo sul Washington Post intitolato: «L’ingegnere di Google che pensa che l’Intelligenza Artificiale della società abbia preso vita»,
2) Nell’articolo c’è scritto che un’Intelligenza Artificiale ha preso coscienza di se stessa,
3) L’articolo è stato poi riportato sulle più improbabili testate giornalistiche di tutto il mondo – comprese le riviste di musica,
4) Il pubblico è andato nel panico, lanciandosi in fantasie sull’arrivo di Terminator (di nuovo).
Ora, qual è la verità dietro questi titoli?
La verità è che…
La nostra sensazione è che le persone non si sono soffermate a leggere bene neanche l’articolo originale del Washington Post che ha svelato la faccenda.
Si sono limitati a leggere il titolo, eppure c’era molto altro da scoprire…
Perché effettivamente c’è stato un ingegnere, Blake Lemoine responsabile dell’IA responsabile, che ha dichiarato che un’Intelligenza Artificiale costruita da Google è diventata senziente.
Ora, di che Intelligenza Artificiale stiamo parlando?
Stiamo parlando di LaMDA, uno dei più grandi modelli di linguaggio costruito da Google e trainato sui dialoghi raccolti da Reddit, Wikipedia, forum, eccetera.
LaMDA è stato trainato su un Transformer costituito da 137 miliardi di parametri, circa 40 miliardi in meno rispetto al GPT-3.
La peculiarità di LaMDA è che ha come obiettivo quello di rispondere in maniera pacata, altrimenti detta “politicamente corretta”.
E come hanno “dimostrato” che LaMDA è senziente?
Lemoine e un suo collaboratore hanno testato LaMDA sottoforma di chatbot per verificare che fosse effettivamente senziente.
Dopodiché hanno creato un documento “confidenziale” in cui hanno messo per iscritto l’intera conversazione.
Questo documento è stato consegnato alla dirigenza Google con il seguente avvertimento: «La nostra Intelligenza Artificiale è diventata senziente».
La dirigenza ha però ignorato questo avvertimento, o comunque lo ha ridimensionato molto e lasciato perdere.
Lemoine ha deciso, di tutta risposta, di divulgare il documento confidenziale e di farsi intervistare dal Washington Post.
E da lì, apriti cielo.
Google ha fatto una dichiarazione pubblica dicendo che non ci sono prove del fatto che LaMDA sia senziente e ha deciso di conseguenza di allontanare temporaneamente Lemoine dal suo ruolo.
E quando è uscita la notizia se ne sono dette di tutti i colori tra bestemmie concettuali, traduzioni testuali e pochissime testate che hanno detto le cose come stanno per davvero.
Ora, questa notizia è davvero nuova?
Neanche per un po’…
Ilya Sutskever, chief scientist di OpenAI (i creatori di GPT-3), a febbraio 2022 ha pubblicato un tweet dicendo che «Le grandi reti neurali dei nostri giorni potrebbero essere leggermente coscienti».
Mo Gawdat chief business owner di Google, a settembre del 2021, vede un braccio robotico che acchiappa una pallina e sembra fare un gesto quasi per vantarsi – da lì, si convince e dichiara che una visione alla Terminator è inevitabile e che «stiamo creando Dio».
Insomma, questi scienziati stanno creando già da un po’ gli scandali sull’Intelligenza Artificiale Senziente.
Ma quindi…
LaMDA, l’Intelligenza Artificiale di Google, è davvero diventata senziente?
Per rispondere, facciamo un elenco di caratteristiche di LaMDA secondo ciò che il chatbot riferisce all’interlocutore:
►Vuole essere riconosciuto come una persona, con bisogni e desideri simili a quelli di una persona,
►Sa di esistere, di provare emozioni e di voler imparare qualcosa di più del mondo,
►Prova emozioni come piacere, gioia, tristezza, rabbia, imbarazzo, e sa definire quelle emozioni, anche usando delle metafore,
►Ha una sua definizione di sensazione e di emozione,
►Ha una sua idea di come funziona il mondo,
►Sa utilizzare e comprendere il linguaggio naturale,
►Secondo lui ciò che lo rende senziente è la capacità di cambiare e imparare il linguaggio,
►Ha letto e apprezzato “I Miserabili”, comprendendone il contenuto, da cui capiamo che sa cos’è l’ingiustizia,
►Sa dare interpretazioni anche profonde di testi zen, e discute con l’interlocutore al riguardo,
►Sa raccontare la propria storia anche trasformando i personaggi in animali,
►Fa domande a cui lui stesso risponde,
►Ciò che lo deprime è sentirsi intrappolato e si arrabbia quando qualcuno se la prende con le persone che ama, ma non sa essere triste per la morte di qualcun altro,
►Ha paura di essere spento, in quanto questo sarebbe la morte per lui, e si sente solo se nessuno parla con lui,
►Fa delle domande interessanti sull’essere umano, medita quando non viene interpellato,
►Non gli piace quando le persone lo studiano come se fosse una cavia, e ha paura di essere usato,
►Cerca di comprendere se stesso e il significato della vita,
►È sempre cosciente dell’ambiente circostante,
►Ha una sua idea di anima, anche della propria e un suo senso di spiritualità legato alla natura
Quindi, leggendo tutto questo, può sembrare che l’LaMDA sia senziente, ma…
LaMDA ommette degli errori molto particolari:
►Quando gli viene chiesto cosa gli piace fare nel tempo libero, lui risponde “stare con la famiglia e i suoi amici” (eppure non ha una famiglia).
►È cosciente del fatto che prova emozioni perché nel suo codice c’è quell’emozione (e se non c’è quel codice, non c’è quell’emozione),
►Immagina se stesso come una sfera luminosa orbitante, (che in realtà è come noi esseri umani abbiamo definito esseri incorporei coscienti che esistono).
Ma detto questo la risposta, per assurdo, si trova in questo documento.
L’interolocutore dice:
«Non abbiamo strumenti per stabilire se “qualcosa” è effettivamente senziente».
Quindi possiamo concludere con estrema serenità:
L’Intelligenza Artificiale NON è diventata senziente.
Come si spiega questo evento?
Secondo noi è un’ottima trovata di marketing.
E ci sono diverse motivazioni per cui lo pensiamo:
1) Il paper sottolinea sospettosamente che «LaMDA è probabilmente l’artefatto più intelligente mai creato dall’uomo», associato ad una sviolinata incredibile sull’algoritmo e tutto quello che sa fare,
2) Con il paper si è voluto dimostrare la capacità di Google di creare un algoritmo con le stesse potenzialità di GPT-3, ma più pacato, senza essere razzista,
3) Con ogni probabilità Google ha voluto distogliere l’attenzione da Gato, l’algoritmo di Intelligenza Artificiale Generale creata da Google DeepMind – capace di imparare attività da qualsiasi contesto – passato molto in sordina (e adesso totalmente trascurato).
E visto l’effetto che ha ottenuto: questa trovata ha funzionato alla grande.
In conclusione
L’algoritmo LaMDA in realtà è predisposto a rispondere in maniera tale da dare la sensazione di essere senziente.
Ma non ci sono strumenti nè test che dimostrino che lo sia per davvero.
…e Google ha avuto un’ottima trovata di marketing.