9 principi per un’Intelligenza Artificiale etica
Attorno al concetto di Intelligenza Artificiale «etica» o «responsabile» si crea sempre un gran polverone.
Un polverone fatto di testate giornalistiche che tendono a sottolineare come l’Intelligenza Artificiale sia «razzista» o che «ruberà il lavoro agli umani».
Ma quella evidenziata dai giornali è solo la punta dell’iceberg.
Appena sotto la superficie del mare ci sono multinazionali che ogni anno propongono nuovi modi di gestire in maniera etica e responsabile i sistemi di Intelligenza Artificiale.
In questa nuovo articolo vogliamo far luce sui nove principi per ottenere un’Intelligenza Artificiale etica e responsabile.
Intelligenza Artificiale etica: come siamo messi?
In questo momento le aziende a livello globale si stanno avvicinando all’Intelligenza Artificiale, ottenendo anche degli ottimi risultati.
Per questo motivo i manager e gli imprenditori si stanno ponendo domande sui problemi che possono scaturire.
Per esempio, si è parlato molto dei bias del machine learning, la perdita del lavoro dei dipendenti a causa dell’automazione e così via.
Tanto che perfino l’Unione Europea se n’è occupata, promuovendo regolamentazioni.
PwC, una delle più grandi società di consulenza al mondo, ha creato una lista di nove principi per garantire l’eticità di un sistema di Intelligenza Artificiale.
Alcuni li abbiamo già visti, mentre altri portano un nuovo sguardo verso l’eticità di una soluzione di Intelligenza Artificiale.
Noi li analizzeremo punto per punto, anche per darti la possibilità di farti strada in questo mondo.
Cominciamo.
1. Interpretabilità
«Un sistema di Intelligenza Artificiale dovrebbe essere capace di spiegare ai diversi stakeholder il suo modello di decision-making a livello generale e cosa guida le predizioni individuali.»
Ora, questa è una cosa di cui avevamo già parlato in passato riferendoci al concetto di white-box, un sistema che permette di ripercorrere il processo di decision-making dell’Intelligenza Artificiale.
Mentre costruire un sistema che spieghi il processo di decision-making dell’Intelligenza Artificiale è possibile farlo in specifiche situazioni, non in tutte.
2. Affidabilità, robustezza e sicurezza
«I sistemi di Intelligenza Artificiale dovrebbero essere sviluppati in modo tale da operare in maniera affidabile sul lungo periodo, usando i modelli e i dataset.»
Qui possiamo riassumere il commento dicendo che quando vengono creati un modello e un dataset per fare il training, di fatto l’esperienza del modello si stabilizza nel tempo e il modello stesso si comporterà in un certo modo per tutto il futuro.
Nel futuro, per garantire che il modello funzioni e mantenga gli stessi risultati, è necessario gestire gli eventi o gli input che possono variare nel tempo.
In alcuni nostri progetti, a seguito di determinati cambiamenti come il cambio dell’umidità o del calore nel controllo qualità, le anomalie si sono evolute e il modello ha smesso di riconoscerle.
3. Agire umano
«Il grado di intervento umano richiesto come parte delle operazioni o del decision-making della soluzione di Intelligenza Artificiale dovrebbe essere dettato dal livello percepito di severità del rischio.»
Questo è uno dei cardini fondamentali in cui operiamo noi nel momento in cui si costruiscono i decision-maker.
Va sempre messo in chiaro all’utilizzatore che l’Intelligenza Artificiale dà suggerimenti, non prende decisioni.
Automatizzare la messa in atto del suggerimento è una volontà effettiva della persona che opera con l’Intelligenza Artificiale e che comprende il rischio (o la severità) di una decisione simile.
Un conto è creare un’automazione per attivare il riscaldamento di casa, un conto è farlo per il raffreddamento di una centrale nucleare.
4. Sicurezza
«Lungo il lifetime operativo, i sistemi di Intelligenza Artificiale non dovrebbero compromettere la sicurezza fisica o l’integrità mentale degli esseri umani.»
Per quanto sia un discorso logico, a volte non si tiene in considerazione.
Quando si progetta un sistema di Intelligenza Artificiale, vanno considerati tutte le possibili situazioni, casualità e variabili che possono influenzarlo.
Partendo da qui possiamo ragionare sul concetto di sicurezza, di integrità degli operatori che lavorano con il sistema.
Ad esempio, nei robot autonomi si inseriscono dei sensori di prossimità che bloccano l’operatività nel caso in cui si avvicinino degli esseri umani.
5. Responsabilità
«Gli stakeholder dei sistemi di Intelligenza Artificiale sono i principali responsabili delle implicazioni morali del loro uso e abuso. Ci deve essere chiaramente una parte identificabile e responsabile, che sia un individuo o un’organizzazione.»
Per commentare questo punto, facciamo un paragone.
Un sistema di Intelligenza Artificiale è come un neo-assunto che viene posto sotto l’ala protettrice di un responsabile, il quale si occupa di farlo crescere e di collocarlo al meglio all’interno di un’organizzazione.
Questo significa che, quando adottiamo un sistema di Intelligenza Artificiale, c’è bisogno di una figura responsabile, come il manager o l’imprenditore, che si occupa delle implicazioni morali – cioè che utilizzi il sistema come “forza del bene”.
6. Privacy dei dati
«Gli individui dovrebbero avere il diritto di gestire i propri dati che vengono usati per trainare e portare avanti le soluzioni dell’Intelligenza Artificiale.»
Il diritto in questo momento c’è, nel senso che in qualsiasi sito viene spiegato per filo e per segno come vengono trattati i dati degli individui.
Pertanto, se dal lato utente questa cosa è regolamentata, dal lato sviluppo è importante che vengano rispettate queste regole e ci sia sempre un uso etico dei dati, e quindi vengano utilizzati per lo scopo dichiarato e non per altro.
7. Legalità e compliance
«Tutti gli stakeholder nel design di un sistema di Intelligenza Artificiale devono sempre agire in accordanza con la legge e con tutti i regimi regolamentativi.»
È evidente che anche un sistema di Intelligenza Artificiale deve rispettare i regolamenti, ma è anche una cosa complicata, soprattutto in Italia.
Qui ci sono prima le leggi e poi ci sono le sentenze, quindi non è facile stabilire qual è il perimetro esatto all’interno del quale è possibile muoversi, soprattutto considerando che un sistema software di Intelligenza Artificiale può anche evolversi.
Per ora questo problema non si pone perché la responsabilità è umana: tutte le decisioni che vengono suggerite dall’Intelligenza Artificiale devono sempre e comunque essere validate dagli operatori umani.
8. Beneficio
«Lo sviluppo dell’Intelligenza Artificiale dovrebbe promuovere e riflettere il bene comune come la sostenibilità, la cooperazione e l’apertura.»
È un modo nuovo di guardare l’Intelligenza Artificiale (anche se noi lo promuoviamo da parecchio).
Per noi l’Intelligenza Artificiale è uno strumento che può essere usato come forza del bene per raggiungere scopi come il miglioramento della qualità della vita delle persone, sempre attraverso sistemi sostenibili, replicabili e trasparenti – in cui le scelte sono motivate e gestite dall’operatore umano.
9. Equità
«Lo sviluppo dell’Intelligenza Artificiale dovrebbe risultare in individui all’interno di gruppi simili trattati in maniera equa, senza favoritismi o discriminazioni e senza causare danni. Dovrebbero anche mantenere il rispetto per gli individui dietro i dati e ci si dovrebbe astenere dall’usare dataset che contengono dei bias discriminatori.»
Torniamo sempre a sottolineare l’importanza di avere un dataset non discriminatorio.
Non è l’algoritmo ad essere discriminatorio, ma è il modo in cui viene addestrato.
Se per esempio una persona cresce in Italia, avrà determinati bias diversi rispetto ad una persona cresciuta in Indonesia.
Perciò l’eventuale discriminazione sta nel dataset.
È un tema che andrà sempre in miglioramento, lavorando sempre più con dati più omogenei e con algoritmi che possano tenere conto di bias ed equità.