L’Intelligenza Artificiale nei prossimi 10 anni secondo Andrew Ng
Image taken from Wikimedia Commons
Chi è Andrew Ng?
È uno dei più grandi “guru” dell’Intelligenza Artificiale.
Professore associato alla Stanford, fondatore di Google Brain, ha lavorato per Baidu, per Google ed è il fondatore di Coursera e DeepLearning.ai, uno dei monoliti nell’informazione dell’Intelligenza Artificiale.
In un’intervista per VentureBeat ha dato la sua opinione su come saranno i prossimi dieci anni dell’Intelligenza Artificiale, in special modo per la computer vision, il natural language processing e il mondo dell’industria.
E in questa puntata vorremmo commentare le sue opinioni.
IL PROBLEMA DELL’INDUSTRIA E DELL’APPROCCIO DATA CENTRICO
Secondo un sondaggio del 2021 di The Manufacturer, il 65% dei leader del settore manifatturiero sta lavorando su un progetto pilota di IA. L’implementazione nei soli magazzini dovrebbe raggiungere un tasso di crescita annuale del 57,2% nei prossimi cinque anni.
Uno dei motivi di questa crescita, sta nel fatto che la visione artificiale (o computer vision) basata sull’Intelligenza Artificiale può aiutare la produzione nell’identificazione dei difetti all’interno dei prodotti.
“Nei software di consumo, si può creare un unico e monolitico sistema di Intelligenza Artificiale per servire milioni di utenti e ottenere valore“, ha affermato Andrew Ng. “Ma nella produzione, ogni impianto produce qualcosa di diverso. Quindi ogni impianto di produzione ha bisogno di un sistema di Intelligenza Artificiale personalizzato che sia addestrato sui propri dati“.
La sfida che molte aziende nel mondo dell’IA devono affrontare, ha proseguito, è come, ad esempio, aiutare 10.000 impianti di produzione a costruire 10.000 sistemi dei clienti.
Secondo un approccio data-centrico l’Intelligenza Artificiale ha raggiunto un punto in cui i dati sono più importanti dei modelli. Se l’IA è vista come un sistema con parti mobili, ha più senso mantenere i modelli relativamente fissi, concentrandosi sui dati di qualità per mettere a punto i modelli, piuttosto che continuare a spingere per miglioramenti marginali nei modelli.
Senza dubbio, i dati la fanno da padrone.
Se non abbiamo dati di qualità, difficilmente riusciamo ad addestrare un modello di Intelligenza Artificiale – sia di Analisi Predittiva o di Computer Vision.
Va aggiunto però che nel settore industria molto spesso le performance richieste sono superiori al 95-97%, perciò lavorare con i dati non è sufficiente.
Bisogna necessariamente lavorare con estrema attenzione e in sinergia con tutte le componenti del sistema di Intelligenza Artificiale, come gli algoritmi di pre-processing per elaborare le immagini e i parametri dei modelli.
L’APPROCCIO DATA-CENTRICO E LA DATA CURATION
Andrew Ng sottolinea che “nella produzione spesso non ci sono tanti dati su cui basarsi”.
Questo, lo confermiamo, è la stessa situazione in cui ci troviamo anche noi.
Se il compito è identificare i prodotti difettosi, ad esempio, una linea di produzione ragionevolmente buona non avrà molte immagini di prodotti difettosi su cui basarsi.
Spesso noi stessi ci troviamo nelle condizioni di non riuscire a trainare i modelli, semplicemente perché i clienti non hanno immagini, oppure non sono sufficienti per creare un dataset efficiente.
“Nella produzione, a volte esistono solo 50 immagini a livello globale”, ha affermato Andrew Ng.
Con 50 immagini già è possibile fare magie, ma comunque non sono sufficienti per la maggior parte dei modelli attuali di Intelligenza Artificiale.
Molto spesso si lavora assieme ai clienti per creare l’ambiente di acquisizione delle immagini – scegliere la telecamera, costruire l’hardware etc. – per poi costruire il software per acquisire le immagini e immagazzinarle in modo corretto e documentarle.
E spesso si crea più avanti il problema dell’interpretazione stessa del difetto: se prendo due esperti diversi del controllo qualità, è probabile che abbiano due concetti diversi di difetto.
Per esempio, se l’esperto di primo livello conferma il difetto, ma l’esperto di secondo livello non è della stessa idea, l’immagine non viene inserita nel dataset, altrimenti l’algoritmo potrebbe confondersi.
Normalmente, considerato che i nostri modelli di Intelligenza Artificiale partono da una competenza e un know-how di reparto, il fatto che l’esperto di primo livello non sia per forza allineato con il capo reparto, allora è un problema solo di passaggio di consegne.
La coerenza all’interno del dataset, in un modo o nell’altro si raggiunge.
Il processo descritto da Andrew Ng è chiaramente un allontanamento dall’approccio del “gettare più dati al problema” spesso adottato dall’IA oggi, puntando maggiormente verso approcci basati sulla cura stessa dei dati.
LE PROSPETTIVE PER I PROSSIMI 10 ANNI
In qualità di insider della Computer Vision, Andrew Ng è molto consapevole dei costanti progressi compiuti dall’Intelligenza Artificiale.
Crede che a un certo punto la stampa e il pubblico dichiareranno “fondamentali” i modelli di computer vision, poiché – anche se non ne siamo consapevoli – questi sistemi fanno già parte della nostra quotidianità.
Tra i costanti progressi, c’è il seguente…
Per le applicazioni in cui sono disponibili molti dati, come la Natural Language Processing, la quantità di conoscenza di dominio iniettata nel sistema è diminuita nel tempo.
Agli albori del deep learning – sia la Computer Vision che l’NLP – “le persone addestravano regolarmente un piccolo modello di deep learning e poi lo combinavano con approcci di base di conoscenza di dominio più tradizionali”, ha spiegato Andrew Ng, “perché il deep learning non funzionava molto bene”.
Ma man mano che i modelli diventavano più grandi, alimentati con più dati, veniva iniettata sempre meno conoscenza di dominio (anche se è sempre fondamentale).
Quando si dispone di data set relativamente piccoli, la conoscenza di dominio diventa importante.
Andrew Ng ritiene che i sistemi di intelligenza artificiale forniscano due fonti di conoscenza: dai dati e dall’esperienza umana.
Quando abbiamo molti dati, l’Intelligenza Artificiale si baserà più sui dati e meno sulla conoscenza umana (anche se dipende molto da come viene strutturato il sistema).
“Tuttavia, dove ci sono pochissimi dati, come nella produzione, è necessario fare molto affidamento sulla conoscenza umana”, ha aggiunto Andrew Ng.
L’approccio tecnico deve quindi riguardare la creazione di strumenti che consentano agli esperti di esprimere la conoscenza, poiché se abbiamo pochi dati, l’unica soluzione è concentrarsi sulla conoscenza di dominio.
Andrew Ng trova anche promettente la cosiddetta Intelligenza Artificiale multimodale, o la combinazione di diverse forme di input, come testo e immagini.
Nell’ultimo decennio, l’attenzione si è concentrata sulla creazione e il perfezionamento di algoritmi per una singola modalità.
Ora che la comunità dell’Intelligenza Artificiale è molto più grande e sono stati compiuti progressi, ha convenuto, ha senso proseguire lungo questa direzione.
Anche noi stiamo lavorando su sistemi multimodali con combinazioni di più tecniche, sia lavorando su dati numerici, immagini e testi.
E per concludere…
Gran parte dell’attenzione sull’IA nell’ultimo decennio si è concentrata sui big data, ovvero enormi set di dati e su cui addestrare reti neurali ancora più grandi.
Questo è qualcosa che Andrew Ng stesso ha contribuito a promuovere.
Ma mentre ci sono ancora progressi da compiere nei grandi modelli e nei big data, Ng ora afferma di pensare che l’attenzione dell’IA debba spostarsi verso i piccoli dati e l’IA incentrata sui dati.
Questo sarà sicuramente un aspetto interessante nel momento in cui ci sarà carenza di dati…
Molto spesso anche noi dobbiamo “elemosinare” dei dati per ricavare dei modelli sensati, sia di analisi predittiva che di computer vision.
Anche i processi produttivi avvengono con degli standard qualitativi molto alti, perciò non è facile replicarli e avere tanti difetti a disposizione.
LE NOSTRE PROSPETTIVE PER I PROSSIMI 10 ANNI
I big data ci saranno sempre.
Aumenta sempre di più la capacità di raccogliere dati e di stoccarli.
Anche il costo dei sensori sta diminuendo, perciò ci troviamo di fatto ad avere macchine che hanno sempre più dati in generale.
Dall’altro avremo situazioni in cui i dati che servono saranno tanti.
Il futuro secondo noi manterrà entrambe le realtà: modelli efficienti che lavorano su pochi dati, sia modelli che lavoreranno con pochi dati.