Come si crea un’Intelligenza Artificiale etica
Era da un po’ che non ne parlavamo, ma forse è tornato il momento di parlare di etica nel mondo dell’Intelligenza Artificiale.
Insomma, iniziamo l’anno con un tema leggero…
Da giorni è ritornata in auge la questione etica dell’usare l’Intelligenza Artificiale in maniera etica o morale.
Questa nuova ondata – la seconda – è partita da un evento che ha scosso sia il mondo dell’Intelligenza Artificiale che quello dell’opinione pubblica.
Stiamo parlando della questione di Timnit Gebru, la ricercatrice di Google che è stata esclusa dal team di Google AI dopo aver pubblicato un paper in cui denunciava le problematiche etiche relative ai modelli di linguaggio molto grandi.
La cosa che ha colpito l’opinione pubblica non è stato il fatto di aver licenziato un personaggio così importante, ma la teatralità del gesto.
Gebru è stata licenziata da un momento all’altro, quasi ghigliottinata.
Ora, la riflessione che è stata fatta da una giornalista di VentureBeat, una delle testate che noi seguiamo di più, è molto bizzarra.
L’autrice parte dal presupposto che la grande Google non sembri davvero interessata a mantenere un approccio etico all’Intelligenza Artificiale.
(In realtà lo è, ha anche un team interno dedicato all’etica, ma sembra che questo interesse sia venuto a mancare nel momento in cui uno dei personaggi più importanti e chiassosi del team etico di Google AI è stato fatto fuori).
Di conseguenza, sembra che ne futuro non ci sarà spazio per parlare di etica nel mondo dell’Intelligenza Artificiale.
Ma è tutto vero?
L’etica è sempre parte integrante della costruzione del dataset
Non sappiamo con precisione cosa sia successo a Timnit Gebru, di conseguenza non conosciamo i numerosi retroscena.
Quello che è certo è che si è tornati a parlare di etica nell’abito dell’Intelligenza Artificiale, ed è questo ciò che ci interessa.
Ma va messo in chiaro un punto in merito alla questione…
L’etica rientra nella costruzione del dataset.
Quindi, è difficile che – anche nel futuro – si possa separare il concetto di etica da quello di Intelligenza Artificiale.
Un dataset costruito male, che da peso a una determinata politica rispetto ad un’altra, non sarà mai corretto nel dare un risultato corretto ed efficace.
Per dirla in termini semplici, avere un’Intelligenza Artificiale razzista non aiuta praticamente nessuno.
Non solo per motivazioni etiche, ma anche tecniche.
Perché i dati e i risultati non saranno coerenti con gli scopi per cui è stata sviluppata.
Ora, come si affrontano le questioni etiche in un’azienda?
In primis, in tutte le aziende si spera ci sia un codice etico relativo all’Intelligenza Umana, ovvero uno strumento di autodisciplina a cui tutti i componenti dell’azienda si attengono.
Dato per assodato che l’etica relativa all’Intelligenza Umana ci sia, gli imprenditori che iniziano un percorso di inserimento dell’Intelligenza Artificiale in azienda fanno bene ad informarsi per capire che cosa sia l’etica, ma applicata all’Intelligenza Artificiale.
Per esempio, se stiamo sviluppando un assistente virtuale che supporta la gestione dei guasti, a livello etico non ci dovrebbero essere problemi.
L’assistente virtuale è addestrato a risolvere dei problemi tecnici e supporterà gli utenti al meglio che può, seguendoli passo passo.
Se invece stiamo parlando di un assistente virtuale che deve supportare l’assuzione di un HR manager – cioè un candidato umano – la questione si complica.
Ma lo stesso problema ce l’avremmo anche se al posto dell’Intelligenza Artificiale ci fosse un operatore umano.
La “fortuna” è che i problemi che stiamo affrontando sono molto piccoli e siamo molto lontani dai problemi di etica veri (e gravi).
Questo non significa che sia sbagliato parlarne, anzi.
A livello di Unione Europea è giusto che ci siano dei gruppi di ricerca che affrontano le suddette questioni.
Ma soprattutto è importante che inizino a mettere un codice nero su bianco tutti i principi etici relativi all’Intelligenza Artificiale, la cosiddetta “carta etica” o “patente sociale”.
Quindi, l’etica è una questione alla quale stare attenti, a prescindere dal fatto che stiamo parlando di Intelligenza Artificiale o umana.
Questo significa che Google non si occupa davvero di Intelligenza Artificiale etica?
Come detto prima, in realtà Google ha anche un team interno dedicato, ma le sue ultime scelte in ambito di management hanno gettato delle ombre a riguardo…
Ora, il problema vero non è tanto il fatto che Google “sembri” non occuparsene…
Il problema vero è che i grandi colossi dell’AI come Amazon e DeepMind hanno in mano la ricerca sull’AI a livello mondiale.
E secondo alcuni esperti, finché la ricerca rimarrà nelle loro mani, loro saranno sempre più avanti ed è difficile che la situazione cambi.
Alla fine, la palla dell'”etica” dovrebbe passare alle piccole aziende tecnologiche, più trasparenti e più vicine ai consumatori.
In poche parole, la palla passa a BlueTensor.
Per noi, imprenditori e dipendenti, avere delle linee etiche e delle politiche aziendali da trasmettere, ci permette di partire con delle basi solide.
L’approccio etico rappresenta una delle pietre miliari di questa società.
Perciò, ben venga la crescita di questi valori, proprio intesi come concetto all’interno del mondo dell’Intelligenza Artificiale.
Un’altra cosa che abbiamo iniziato a fare negli ultimi mesi sono dei modelli di Intelligenza Artificiale in “white-box”, che ci permettono di seguire i ragionamenti che l’Intelligenza Artificiale ha fatto per raggiungere quelle conclusioni.
Perché la white-box è una delle soluzioni ai problemi etici dell’AI
Per specificare, quando noi realizziamo un modello, di fatto, insegnamo alla macchina a certi percorsi “mentali” che lo portano a prendere delle decisioni o dare dei suggerimenti.
Questi percorsi rimangono solitamente oscuri – black-box, appunto – perché i ragionamenti sono rappresentati da funzioni matematiche all’interno dei neuroni virtuali dei modelli.
Perciò, se vogliamo comprendere anche il comportamento di un algoritmo e renderlo etico, un modello black-box non è esattamente la soluzione più adatta.
Infatti, quando lavoriamo con dei modelli white-box, questi percorsi non sono nascosti.
In tal modo possiamo individuare e prendere decisioni osservando il percorso che l’informazione fa dall’inizio alla fine del modello – le funzioni matematiche che vanno a muovere i neuroni.
E se il percorso porta ad una risoluzione “non etica” – per esempio identifica una persona afroamericana come più tendente al crimine – allora possiamo intervenire e modificarlo.
Chi può creare un’Intelligenza Artificiale etica?
In poche parole, solo un esperto conoscitore dei meccanismi dell’Intelligenza Artificiale può effettivamente costruire un algoritmo che non crei problemi etici di alcun genere.
E questo è solo uno dei tanti motivi per cui abbiamo fondato BlueTensor.
Se ci vuoi contattare, trovi il form a questa pagina: www.bluetensor.ai.