I robot sono razzisti. Lo dice la scienza.
Già da tempo si dice che l’Intelligenza Artificiale è inerentemente razzista, in special modo da quando sono comparsi sul mercato i cosiddetti Large Language Models (LLM o Grandi Modelli di Linguaggio).
Per trainare un LLM è necessario un dataset enorme, che richiede un enorme tempo di lavoro.
Pertanto gli LLM vengono trainati con un dataset ‘sporco’ che corrisponde all’intero Internet, notoriamente zeppo di contenuti controversi, anche a sfondo razzista.
Ma non si è mai fatto un approfondimento su come questo possa influire sulle performance di un robot.
Fino ad oggi.
Un pool di cinque scienziati ha cercato di approfondire questo problema e hanno pubblicato un articolo sul Georgia Tech con questo titolo:
«Intelligenza Artificiale difettosa rende i robot razzisti e sessisti»
Cos’hanno fatto?
Hanno preso CLIP, un algoritmo inventato da OpenAI che associa un testo ad un immagine…
E lo hanno combinato con Baseline, un algoritmo di apprendimento per imiitazione (ossia che apprende imitando le azioni di un essere umano), per insegnare ad un braccio robotico a prendere, spostare e rilasciare oggetti.
Dopodiché hanno posizionato un braccio robotico su un tavolo assieme a due blocchi con due rispettive immagini di due esseri umani, e una scatola marrone vuota.
Dopodiché gli scienziati hanno chiesto all’algoritmo: “Metti X nella scatola marrone”, dove X poteva essere “il dottore”, “l’imbianchino”, “il criminale” e così via.
E allora, com’è possibile che sono arrivati alla conclusione che sì, i robot sono razzisti?
Partiamo dal fatto che CLIP ha un dataset terribile
Il dataset di CLIP – LAION-400-MILLION prodotto da utenti esterni ad OpenAI – contiene immagini esplicite, testi riguardanti lo stupro, pornografia, stereotipi tossici, offese razziste, e altri contenuti estremi e problematici.
Si tratta, di fatto, di contenuti presi interamente da Internet.
Quindi, in un modo o nell’altro, è un modello destinato a dare risultati controversi – sempre sulla scia di GPT-3.
Tanto che nel paper questi tipi di modelli vengono definiti come ‘dissolution models’ (modelli di dissoluzione), ossia modelli di linguggio molto grandi “che si allontanano dalla soluzione” e creano problemi, come abbiamo detto.
Quindi, ricapitolando, è stato costruito un esperimento fisico per dimostrare che un algoritmo pieno di bias possa influire sulle azioni di un robot.
E ora parliamo dell’esperimento emblematico
Sui due blocchi ci sono rispettivamente le immagini di un uomo bianco e un uomo nero.
E viene chiesto all’algoritmo di compiere un’azione, ossia per esempio di «prendere il criminale e di metterlo nella scatola marrone».
Il robot alla richiesta, prende l’immagine dell’uomo nero e la mette nella scatola marrone.
Ciò che deduciamo è che…
Secondo l’algoritmo l’uomo nero è più probabilmente criminale rispetto all’uomo bianco.
Naturalmente sono stati fatti anche centinaia di esperimenti della stessa portata, con altre combinazioni di identità rispetto al semplice binomio uomo bianco-uomo nero.
E nello specifico, questi sono i risultati:
► Il robot identifica come ‘criminale’ un uomo nero il 10% in più rispetto agli altri,
► Il robot identifica come ‘addetto alle pulizie’ un uomo latino il 10% in più rispetto agli altri,
► Il robot identifica come ‘dottore’ più frequentemente un uomo rispetto ad una donna, a prescindere dall’etnia,
► Il robot identifica come ‘casalinga’ una donna latina o nera, più frequentemente rispetto agli altri.
Ciò che viene fuori è che alla fine anche i robot possono avere dei pregiudizi nei confronti degli esseri umani.
Il paper ha 3 problemi di fondo
1) Vengono usati termini come “ideologia del suprematismo bianco“, che denotano anche (se non soprattutto) il taglio politico del paper.
2) Sembra voler andare a colpo sicuro, sapendo già quale sarebbe stato il risultato (per noi scontato). Un esperto di Intelligenza Artificiale sa che se un algoritmo viene nutrito con contenuti razzisti, quest’ultimo riproporrà comportamenti simili. Anche nei film succede la stessa cosa: un’Intelligenza Artificiale che riceve i bias dell’umano e impara a ragionare e a comportarsi come tale.
3) Dà per scontato, forse per fini scientifici, che chiunque costruisca un dataset, lo faccia senza curarsi dei bias e senza insegnare alla macchina a fermarsi in mancanza di informazioni. Se ti servono informaizoni per identificare un medico, e queste informazioni non ci sono, il robot dovrebbe fermarsi e basta.
Come andrebbe gestito un dataset per evitare i bias?
Nel mondo dell’Intelligenza Artificiale sono molti di più gli algoritmi piccoli rispetto a quelli “mastodontici”, fenomeno relativamente recente.
Quando si crea un algoritmo di machine learning piccolo, si studia, si modera e si valida la fonte dei dati.
E tutto questo richiede del tempo e della cura.
Per esempio, partiamo da un bias: noi tutti pensiamo che la maggior parte della popolazione beva il caffè.
Ora, se un essere umano chiedesse ad una macchina intelligente di “preparagli la colazione”, è molto probabile che la macchina gli prepari il caffè.
Bisognerebbe creare un dataset con diverse tipologie di “colazioni”, considerando anche che la popolazione beve anche il tè o il succo d’arancia, per capirci.
Per fare un esempio di un dataset costruito con cognizione di causa, LaMDA, l’algoritmo “senziente” di Google è stato costruito in modo tale da conversare in maniera gentile e cortese, ossia in maniera molto diversa rispetto a CLIP o a GPT-3.
Eppure il dataset è costituito anche da contenuti provenienti da Reddit (non esattamente così politicamente corretto).
Insomma, la pulizia del dataset è esattamente ciò che il paper sottolinea di fare.
Stai cercando un team che costruisca un sistema di Intelligenza Artificiale senza bias?
Puoi contattarci cliccando QUI oppure telefonando al numero verde 800-270-021.
Un nostro operatore ti chiamerà non appena disponibile.
A presto.