Home Phone Email

4 novità ‘wow’ dal mondo dell’AI per il 2021

Il 2021 è arrivato, e con il suo arrivo si è portato ben 4 novità “wow” che influenzeranno il mondo del business a breve.

Ciclicamente dal mondo dell’Intelligenza Artificiale spuntano innovazioni che scuotono l’opinione pubblica.

Una di queste è il recente GPT-3, il motore di linguaggio di OpenAI capace di produrre testi che sembrano scritti da un essere umano.

Le testate giornalistiche hanno cavalcato l’onda dell’hype e ne hanno parlato per mesi interi, tanto da definirlo persino l’”algoritmo del secolo”.

Ora, è naturale che l’opinione pubblica sia (tutt’ora) eccitata per queste novità e dica “wow”…

Ed è altrettanto naturale che i soldi delle aziende – Microsoft in primis – siano stati investiti in questo tipo di tecnologia…

Tuttavia…

Non è possibile ragionare in questa maniera con tutte le innovazioni che arrivano sul mercato…

Soprattutto se sei un imprenditore o un manager e le uniche due domande che ti poni sono:

  1. Quanto costa questa nuova tecnologia?
  1. Quanti benefici può portare alla mia azienda?

E quindi l’unica cosa che davvero ti interessa è se quella tecnologia ti permette di ottimizzare il tuo lavoro, in qualsiasi suo aspetto.

Ora, il 2021 è arrivato…

E con il suo arrivo si è portato ben 4 novità “wow” che influenzeranno il mondo del business a breve.

Si tratta di tecnologie che permettono già da adesso di:

  • risparmiare l’energia impiegata per il training dei modelli,
  • proteggere l’Intelligenza Artificiale da qualsiasi tipo di manomissione,
  • rendere il linguaggio umano ancora più comprensibile per un modello,

Certo, non hanno avuto la stessa risonanza del GPT-3…

Ma hanno catturato l’attenzione di noi specialisti dell’Intelligenza Artificiale…

Cominciamo subito.

Novità n°1: Less Than One-Shot Learning

Detto in italiano: “apprendimento a meno di un colpo singolo“.

Come sappiamo e come abbiamo detto nel precedente articolo, i modelli di Intelligenza Artificiale sono avidi.

Nel senso che richiedono un certo quantitativo di energia e di tempo affinché siano perfettamente funzionanti.

Per fare un paragone: un bambino ha bisogno di una sola immagine per imparare a riconoscere un canguro.

Mentre un algoritmo di Intelligenza Artificiale ha bisogno di migliaia, se non milioni di immagini.

Quindi, per risparmiare energia e tempo l’obiettivo sarebbe quello di avvicinare la capacità di apprendimento dell’Intelligenza Artificiale a quella del bambino…

Ma come si può fare?

Secondo uno studio di un team dell’Università di Waterloo in Ontario, si potrebbe trainare un modello utilizzando una sola immagine – il cosiddetto “one-shot” learning, “a colpo singolo” – ma questo team vuole fare molto di più…

L’obiettivo del team è quello di non utilizzare nessuna immagine per il training, appunto “less-than-one-shot learning”.

In poche parole, l’obiettivo è far riconoscere all’algoritmo l’immagine di un canguro senza averglielo mai mostrato.

E come glielo si insegna?

Per fare un esempio iper-semplificato, prima gli si fanno vedere delle immagini di cani e gatti con delle etichette “soft” che indicano che:

  1. L’immagine di un cane è il 60% dell’immagine di un canguro
  2. L’immagine di un gatto è il 40% dell’immagine del canguro.

Nel momento in cui poi l’algoritmo avrà finito il training con i cani e i gatti, sarà capace di riconoscere un canguro senza averlo mai visto in base a quello che ha imparato sui cani e sui gatti.

Questo significa insegnare ad un algoritmo delle cose senza nemmeno fargliele vedere, riducendo drasticamente il consumo di energia e di tempo richiesto da qualsiasi altra forma di apprendimento.

Questo tipo di apprendimento permetterebbe di ridurre:

  • La quantità di immagini da inserire nel dataset,
  • La potenza di calcolo necessaria per fare il training,
  • I tempi di rilascio del software dopo lo sviluppo.

In termini di business, è un risparmio di denaro incommensurabile.

Ma la novità non ha solo a che fare con il tempo risparmiato…

Questo tipo apprendimento potrebbe addirittura trovare soluzioni a dei problemi specifici sconosciuti, eccezionali o molto rari, partendo però da una casistica conosciuta.

Questo conferma ancora una volta quello che stiamo dicendo da anni…

Gli algoritmi continueranno a migliorare, i training saranno più veloci e daranno dei risultati di performance sempre migliori.

***

Novità n°2: AI Hacker-Proof

L’Intelligenza Artificiale “a prova di hacker“.

La minima perturbazione all’interno di un algoritmo può portare ad un risultato del tutto diverso rispetto a quello previsto, a volte anche pericoloso.

Per fare un esempio, un algoritmo trainato a riconoscere la presenza del cancro analizzando delle lastre segnate con un evidenziatore giallo, potrebbe arrivare ad associare il colore giallo al termine “cancro”.

Che non è esattamente il risultato che i medici vorrebbero…

Oppure, un adesivo sulla strada potrebbe ingannare l’autopilota di una Tesla e spostare l’auto improvvisamente, senza motivo.

Quindi, quando si parla di questi piccoli problemi che si possono creare all’interno dell’algoritmo, ci si può anche fare male.

Ora, questi sono problemi intrinseci dell’Intelligenza Artificiale, che si possono risolvere facendo un’analisi preliminare, migliorando il training…

Discorso diverso è quando un hacker decide di modificare intenzionalmente il processo decisionale dell’algoritmo, cambiando giusto qualche input.

Quindi, come si può rendere un algoritmo a prova di hacker?

Un team dell’università dell’Illinois ha creato un metodo tanto assurdo a sentirlo, quanto funzionale

In poche parole, hanno messo in combattimento due diverse reti neurali.

Una adibita a riconoscere immagini, cioè riconoscere l’immagine di un cane…

E un’altra che viene adibita ad imbrogliare questa rete di riconoscimento, dando delle immagini che in realtà non c’entrano assolutamente niente con un cane, tipo le immagini dei canguri, per fare un esempio.

La rete neurale che tenta di riconoscere le immagini è addestrata a combattere questo tipo di ‘imbrogli’.

In questo modo, l’Intelligenza Artificiale che deve riconoscere i cani si irrobustisce ogni volta, finché non riesce a separare le immagini dei cani da quelle del canguro.

Ora, questo meccanismo non è propriamente “nuovo” nella sua essenza…

Per esempio, un tipo di tecnologia molto simile viene usata nel settore degli investimenti di borsa, in cui si possono trovare dei bot che creano le fake news per cambiare i valori degli stock…

Ma in quel caso gli algoritmi devono riuscire a verificare se quell’informazione è vera o falsa, partendo da informazioni e istruzioni pregresse.

Nel caso della battaglia di “reti neurali”, non ci sono informazioni pregresse e difficilmente un data scientist inserirebbe delle immagini incoerenti in un dataset (un canguro in un dataset di cani)…

Il rischio sarebbe quello di confondere, appunto, l’algoritmo stesso…

Ma in questo gioco a due potrebbe funzionare.

***

Novità n°3: Vokenization

È una novità di cui si era già sentito parlare tempo fa…

Il termine italianizzato è vokenizzazione e deriva da “token”.

Ma che cos’è un “token”?

Un Token è la minima parte all’interno di una frase o di un testo.

All’interno della frase “il gatto miagola”, ogni singola parola può essere considerata un token – token “il”, token “gatto”, token “miagola”.

Ora, il concetto di vokenizzazione parte da quello che è considerato l’algoritmo del secolo, il GPT-3, che però ha mostrato dei problemi evidenti fin dai primi giorni del suo rilascio.

Non per nulla potrebbe prendere alla lettera dei modi di dire – come “arrampicarsi sugli specchi” – senza però comprenderne il significato.

Per migliorare questo tipo di apprendimento, si potrebbe unire gli algoritmi di Natural Language Processing con la Computer Vision, che permette alle macchine di vedere, osservare e comprendere.

E lo si fa sfruttando un processo del tutto nuovo…

Si mostra ad un algoritmo di linguaggio delle immagini etichettate con delle parole o delle frasi, per aiutarlo a comprendere la realtà.

Per esempio, la parola “contatto” può indicare diversi concetti.

Può indicare un contatto che abbiamo in rubrica, per esempio, oppure può indicare il contatto fisico.

E come si può fare per differenziarli?

  1. Si associa al token “contatto” il logo del contatto della rubrica.
  2. Mentre con la frase “alcuni gatti amano il contatto” associata all’immagine di un gatto che viene accarezzato, si indica un concetto completamente diverso, quello del contatto fisico, anche se con la stessa parola.

Il senso della vokenizzazione è riuscire ad aiutare un algoritmo di NLP a comprendere meglio la realtà, semplicemente mostrandogliela.

Per noi è assolutamente un’idea interessante per dare contesto (o anche intonazione) alle frasi che si trovano spesso nei testi, e quindi aiutare l’intelligenza Artificiale ad interpretare la singola frase o il singolo testo.

***

Novità n°4: MuZero

Tutti quanti noi conosciamo bene o male la storia di AlphaGo, l’algoritmo di DeepMind che è riuscito a sconfiggere il campione mondiale di Go.

L’abbiamo utilizzato come riferimento nel nostro libro “Intelligenza Artificiale per l’impresa” perché è uno dei primi algoritmi sì che ha battuto un essere umano, ma che è stato addestrato insegnandogli le strategie, e in parte facendogli osservare le partite.

Da pochissimo tempo DeepMind ha rilasciato MuZero, un algoritmo capace di giocare a Go, a Scacchi, a Shogi e anche all’Atari, ma senza conoscerne le regole.

Questo infatti è lo slogan di MuZero: “Vince senza conoscere le regole“.

Per essere più precisi, MuZero riesce ad imparare le regole e a trovare i metodi migliori per vincere una partita a scacchi, semplicemente guardando milioni di partite e comprendendo come i vincitori riescano a vincere.

(Direi che questo è l’esempio perfetto di cui parleremo nel prossimo libro che scriveremo).

È un esempio che spiega come l’Intelligenza Artificiale crei un cambio di paradigma rispetto alle precedenti strategie nello sviluppo software.

Chi sviluppa software tradizionali insegna alla macchina la funzione che deve risolvere, quindi la macchina riceve in input un dato e, a parità di input, l’output rimane costante nel tempo.

Nel caso dell’Intelligenza Artificiale, la macchina riceve tanti dati in input – le partite da osservare – e tanti output – la vittoria della partita.

Sulla base delle mosse e dei risultati impara a costruire un po’ il modello, il famoso modello appreso che poi può essere replicato ricevendo in ingresso dati incogniti per dare l’output desiderato.

Ora, non sappiamo quale sarà il futuro di MuZero – anche se molto probabilmente potrebbe inventarsi un algoritmo per vincere a Tetris, a Super Mario o a Pac Man…

Però sono basi interessanti. 

***

Quindi, che cosa fare adesso con queste novità “wow”?

Se stai pensando di intraprendere un percorso di sviluppo di Intelligenza Artificiale, queste novità ti stanno solo aspettando.

E compilando il modulo che puoi trovare cliccando qui, e sarai ricontattato per capire se queste novità fanno anche al caso tuo parlando con uno dei nostri esperti.

A presto!

Francesco Azzarita
Francesco Azzarita
Articoli: 40