Super Intelligenza Artificiale: è ora di parlarne seriamente?
Quando parliamo di intelligenza artificiale (IA), è utile considerare tre categorie esistenti da quando questa tecnologia è stata teorizzata:
- Intelligenza Artificiale Ristretta: Brava, per dirla in termini profani, a svolgere una specifica attività.
- Intelligenza Artificiale Generale: Capace di apprendere e adattarsi come un essere umano.
- Super Intelligenza Artificiale: Una forma teorica di IA che potrebbe superare le capacità cognitive dell’essere umano.
Da anni, come specie, nutriamo un certo grado di terrore verso la super intelligenza artificiale.
Se pensi a film come Terminator, Io, Robot e Matrix, avrai un’idea di quanto sia radicata questa paura nel nostro immaginario collettivo.
L’articolo di OpenAI
Sam Altman, CEO di OpenAI, l’organizzazione che ha creato modelli come ChatGPT e Dall-E, ha iniziato a parlare di questa «intelligenza artificiale super intelligente» in un articolo sul proprio blog.
Inizia dicendo:
«La super intelligenza artificiale rappresenterà la tecnologia più impattante mai creata dall’umanità, con un potenziale sia di risolvere molti dei problemi più importanti del mondo sia di presentare sfide notevoli»
L’articolo suggerisce che, sebbene la super intelligenza possa sembrare un obiettivo lontano, potrebbe diventare realtà entro il decennio corrente, ovvero entro il 2030.
E questo rende ancora più urgente la necessità di istituzioni di governance e soluzioni per il problema dell’allineamento.
La domanda che sorge spontanea è: siamo pronti a gestire questa forma emergente di intelligenza artificiale?
Attualmente, non esistono metodi affidabili per guidare o controllare una super intelligenza artificiale e prevenire scenari catastrofici.
Le nostre tecniche attuali per allineare le intelligenze artificiali, come l’apprendimento per rinforzo tramite feedback umano, hanno dei limiti.
L’apprendimento per rinforzo e il problema della supervisione umana
Per capire meglio, dobbiamo sapere cosa sia l’apprendimento per rinforzo o reinforcement learning.
È un metodo di addestramento dell’IA in cui la macchina:
(1) apprende da un dataset e, mentre testa le competenze acquisite,
(2) riceve feedback.
Questo feedback è solitamente fornito da esseri umani e serve per orientare l’IA durante il suo successivo ciclo di apprendimento.
In altre parole, l’apprendimento per rinforzo è un tipo di apprendimento supervisionato.
Gli esseri umani hanno il potere di supervisionare e guidare ciò che l’IA sta imparando, fornendo feedback che la macchina utilizza per affinare le sue competenze.
Tuttavia, secondo l’articolo di OpenAI, questo tipo di supervisione non sarà sufficiente quando arriveremo al punto di sviluppare una super intelligenza.
In altre parole, le tecniche di allineamento attuali non saranno in grado di scalare fino a livelli di intelligenza che superano le nostre capacità cognitive.
In sostanza, il messaggio dell’articolo è diretto e preoccupante.
I nostri metodi attuali potrebbero non essere più sufficienti per gestire o controllare un’IA super intelligente nel prossimo decennio.
La soluzione secondo OpenAI
E arriviamo al cuore dell’obiettivo di OpenAI.
La soluzione ha una definizione che fa riflettere: «Human-Level Automated Research».
Questo sistema sarebbe in grado di condurre ricerche autonomamente sull’«allineamento» delle IA, forse anche meglio e più rapidamente di quanto possa fare un essere umano.
L’allineamento riguarda l’intento umano in relazione alle capacità dell’intelligenza artificiale.
In teoria, una volta che avremo allineato il primo di questi ricercatori automatizzati, potremo usare enormi quantità di calcolo per rendere più efficace l’IA superintelligente.
Si tratta di utilizzare l’IA per assicurare che altre IA siano allineate con gli obiettivi e i valori umani.
Ma c’è un aspetto delicato da considerare: stiamo ponendo limiti all’IA.
Quando addestriamo una macchina per compiere un compito specifico e forniamo feedback umano, stiamo anche implicitamente dando alla macchina un insieme di vincoli basati sulle nostre proprie limitazioni.
Che cosa vogliamo dall’IA?
L’articolo suggerisce la necessità di un’entità simile all’Agenzia Internazionale per l’Energia Atomica per monitorare lo sviluppo della superintelligenza.
Ci sarà un punto in cui ogni sforzo che superi una certa soglia di capacità o risorse calcolistiche dovrà rispondere a un’autorità internazionale.
Tuttavia, c’è una sfumatura importante da considerare: imponiamo certi limiti all’IA che potrebbero non essere necessari o addirittura controproducenti.
Ad esempio, se noi istruissimo un’IA a muovere oggetti basandoci sulle nostre proprie limitazioni fisiche, come avere solo due mani, potrebbe non trovare le soluzioni più efficienti possibili.
Questo ci fa riflettere su un dilemma fondamentale.
Desideriamo un’IA che sia un fedele “cagnolino” al nostro fianco, o preferiremmo un “cane da caccia” che esplora liberamente nuovi territori?
L’ambizione e il progresso, in molti casi, ci spingono verso il “cane da caccia,” ma ci sono rischi inerenti.
Il sottotesto dell’articolo di OpenAI
È interessante notare che i toni siano diventati più moderati rispetto ai discorsi precedenti sull’IA e la superintelligenza.
Infatti, se confrontiamo i toni attuali con quelli dell’inizio dell’anno, la differenza è abissale.
L’articolo cerca di essere ottimista e moderato nei suoi toni, sottolineando che c’è ancora tempo per agire con saggezza.
Questo potrebbe essere un tentativo di evitare l’allarmismo, o potrebbe riflettere una nuova cautela nel campo, forse c’è stato un cambiamento di strategia.
Potrebbe essere un atteggiamento cautelativo.
Oppure potrebbero aver notato che lanciare allarmi a tutto spiano non solo non convince il pubblico, ma potrebbe anche allontanarlo dalla tecnologia.
Ma è implicito il rischio che, se non affrontato correttamente, il potenziale pericolo di una superintelligenza non allineata potrebbe essere immenso.
È giustificato preoccuparsi della Super IA?
Solo l’anno scorso con Google DeepMind abbiamo visto un progresso significativo verso l’Intelligenza Generale con Gato.
Stiamo parlando di una tecnologia che può padroneggiare un centinaio di attività, ma che è ancora lontana dall’essere un’Intelligenza Artificiale Generale a tutto tondo.
Probabilmente, il dibattito è stato offuscato dalla preponderanza di ChatGPT, la tecnologia di cui tutti parlano.
Certo, ChatGPT può fare molte cose, ma è fondamentalmente un modello di linguaggio.
Non è come se potesse imparare a giocare a Minecraft.
Prendiamo ad esempio il Tesla Bot di Elon Musk.
Dopo una sorta di annuncio bomba che sembrava suggerire che siamo sulla soglia di una nuova era, cosa è successo?
Poco o niente.
Se i grandi nomi dell’IA vogliono prendersi il tempo per affrontare questi temi complessi, fanno bene.
Tuttavia, per ora, si vede solo un panorama tecnologico che sembra essere inondato da prodotti basati su varie versioni di GPT, piuttosto che da innovazioni radicali.
Conclusioni
Vedremo che cosa il futuro prossimo ha in serbo per noi.
Rimane da vedere se l’approccio cauto e riflessivo di OpenAI porterà a frutti duraturi o se ci troveremo a confrontarci con scenari più preoccupanti.
Ci auguriamo che il mercato possa reagire positivamente non tanto a questo articolo, ma piuttosto alle innovazioni emergenti nel campo dell’IA.
Perché se c’è una cosa che è chiara, è che tutti questi sviluppi, questi accenni al futuro, hanno il potenziale di penetrare il mercato in modi che al momento possiamo solo immaginare.
Quindi, mentre concludiamo questa discussione per ora, teniamo gli occhi aperti per quelle piccole e grandi innovazioni che potrebbero cambiare il gioco.
Potrebbero essere proprio quegli elementi che oggi vediamo solo come piccoli accenni a spingere davvero l’IA e l’AGI dalla teoria alla pratica.