Intelligenza Artificiale e Trasparenza
Intelligenza Artificiale e Trasparenza.
Cominciamo con una domanda…
Se ti dovessi affidare ad un team di esperti di Intelligenza Artificiale, quante informazioni vorresti ricevere sulla soluzione che ti creeranno?
La tua risposta, probabilmente, sarebbe: “Tutte quelle disponibili, in totale trasparenza”.
E sarebbe anche un ragionamento al 100% corretto: un sistema di Intelligenza Artificiale può modificare profondamente la struttura aziendale, ed è giusto essere informati.
E questo ragionamento è lo stesso che stanno facendo sempre più aziende nel mondo.
Infatti, dopo le numerose controversie di cui abbiamo parlato (altrettanto) numerose volte nel podcast, gli imprenditori e i manager stanno chiedendo a gran voce una sola cosa…
Che qualsiasi soluzione di Intelligenza Artificiale applicata in azienda – i dati utilizzati, i suoi ragionamenti, i possibili risultati – siano in totale trasparenza.
Ma come si rende una soluzione di Intelligenza Artificiale trasparente?
Quali sono i possibili vantaggi di una soluzione di Intelligenza Artificiale trasparente?
Ne parliamo in questo articolo.
La trasparenza è sempre più necessaria
Man mano che l’IA si integra nella vita delle persone, cresce anche la richiesta di trasparenza su quando viene utilizzata e con quale scopo.
La trasparenza è un elemento essenziale per guadagnare la fiducia di consumatori e clienti in qualsiasi ambito.
E quando si parla di IA, la trasparenza significa comunicare con le parti interessate su:
- il motivo per cui è stata scelta una soluzione di IA,
- come è stata progettata e sviluppata,
- su quali basi è stata implementata,
- come viene monitorata e aggiornata,
- le condizioni per cui potrebbe essere ritirata.
In un progetto, la trasparenza è il trasferimento sistematico di conoscenze da uno stakeholder all’altro: chi raccoglie i dati con i data scientist, e i data scientist con i dirigenti, per esempio.
Perché la trasparenza è sempre più necessaria
Riduce il rischio di errore e di usi impropri.
I modelli di Intelligenza Artificiale sono sistemi altamente complessi, la cui creazione è partecipata da una varietà di persone.
Ciò significa che c’è molto spazio per errori e usi impropri.
Per esempio, se il team che crea il sistema non spiega come gestire correttamente i risultati del modello, introdurre l’IA può essere controproducente, se non dannosa.
Consideriamo il caso di un’IA progettata per leggere delle lastre a raggi X alla ricerca di cancri.
Le radiografie etichettate come “positive” vengono quindi riviste dai medici: in questo modo un medico può guardare con maggiore efficienza 40 lastre etichettate dall’IA rispetto a 100 lastre non etichettate.
Sfortunatamente, si verifica un gap comunicativo.
Nel progettare il modello, i data scientist hanno ragionevolmente pensato che contrassegnare erroneamente una radiografia come negativa quando in realtà la radiografia mostra un tumore canceroso può avere conseguenze molto pericolose e quindi hanno stabilito una bassa sensibilità per i falsi negativi e un’elevata sensibilità per i falsi positivi.
In poche parole, è molto più facile per i medici (e sicuro per i pazienti) trovare lastre false positive rispetto a false negative.
Questa informazione, tuttavia, non viene comunicata ai radiologi.
Il risultato: i radiologi trascorrono più tempo ad analizzare 40 lastre etichettate positive dall’IA rispetto a 100 lastre non etichettate, perché continuano a cercare ciò che l’IA avrebbe trovato.
Se i radiologi fossero stati adeguatamente informati, avrebbero concluso che l’IA era eccessivamente sensibile ai falsi positivi e sarebbero andati avanti.
Distribuisce la responsabilità.
Se un imprenditore deve decidere quale sistema implementare in azienda o se un utente vuole utilizzare un prodotto basato sull’Intelligenza Artificiale, entrambi devono essere adeguatamente informati.
Ad esempio, un imprenditore che approva l’uso dell’IA deve prima sapere, in termini generali:
- come è stato progettato il modello,
- come sono stati ottenuti i dati di training,
- quale obiettivo deve raggiungere,
- come si comporta il modello rispetto ai benchmark stabiliti.
Sia gli imprenditori che gli utenti finali hanno bisogno di informazioni per prendere decisioni informate.
La mancata comunicazione di tali informazioni è, in alcuni casi, un’inosservanza del dovere. In altri casi, la responsabilità è di coloro che non sono riusciti a creare le condizioni per una comunicazione chiara.
Ad esempio, un manager che controlla tutte le comunicazioni dal proprio gruppo a chiunque sia esterno al gruppo può limitare involontariamente comunicazioni importanti perché fungono da collo di bottiglia nella comunicazione.
Essendo trasparenti dall’inizio alla fine, la responsabilità può essere distribuita a tutti (anche agli imprenditori e agli utenti finali) poiché vengono fornite le informazioni di cui hanno bisogno per prendere decisioni responsabili.
Consente la supervisione interna ed esterna.
I modelli di Intelligenza Artificiale sono costruiti da un numero tendenzialmente ristretto di data scientist e ingegneri, ma l’impatto può essere enorme sui profitti di un’azienda.
Come con qualsiasi altra situazione rischiosa, è necessaria la supervisione sia per individuare gli errori commessi da chi ha progettato l’IA, sia per individuare potenziali problemi per i quali c’è bisogno di formazione ulteriore, siano essi rischi etici o legali.
E ci sono molte decisioni nel processo di progettazione e sviluppo che semplicemente non dovrebbero essere lasciate (esclusivamente) nelle mani dei data scientist.
Il controllo è tuttavia impossibile se i creatori dei modelli non comunicano chiaramente agli stakeholder – sia interni che esterni – quali decisioni sono state prese e le basi su cui sono state prese.
Una delle più grandi banche del mondo, ad esempio, è stata recentemente indagata per un presunto algoritmo discriminatorio, per cui è stato chiesto di consegnare alle autorità informazioni dettagliate su come il modello è stato progettato, sviluppato e implementato.
Allo stesso modo, sia gli imprenditori che i consigli di amministrazione non possono svolgere la loro funzione se sia il prodotto che il suo processo di creazione sono opachi per loro, aumentando così il rischio per l’azienda e tutti coloro che sono interessati all’IA.
Esprime rispetto per l’autodeterminazione delle persone.
Si può usare l’IA per ingannare o manipolare le persone.
Ad esempio, l’IA svolge un ruolo cruciale nella diffusione di fake news.
Consideriamo un consulente finanziario che nasconde l’esistenza di alcune opportunità di investimento e sottolinea i potenziali vantaggi di altre per cui riceve una commissione maggiore.
Questo è un male per il cliente in almeno due modi: in primo luogo, può essere un cattivo investimento e, in secondo luogo, è manipolativo perché non garantisce il consenso informato del cliente.
In altre parole, questo consulente non rispetta il diritto del suo cliente di determinare da sé quale investimento è giusto per sé.
Il punto più generale è che l’IA può minare l’autonomia delle persone, la loro capacità di vedere le opzioni a loro disposizione e di scegliere senza essere influenzate o manipolate.
Per esempio, se un’opzione viene spostata fuori dalla lista e altre opzioni vengono promosse ripetutamente è, grosso modo, il modo in cui le persone vengono spinte in scatole invece di avere la possibilità di scegliere liberamente.
Il corollario è che la trasparenza sul fatto che un’IA venga utilizzata, a cosa serve e come funziona esprime rispetto per le persone e le loro capacità decisionali.