Microsoft: le nuove linee guida per l’interazione Uomo-AI
Ciclicamente una nuova entità decide di pubblicare delle linee guida per la creazione e l’utilizzo dell’Intelligenza Artificiale.
Lo ha fatto il World Economic Forum, lo ha fatto anche l’Unione Europea recentemente, e adesso l’ha fatto anche Microsoft.
Microsoft ha infatti rilasciato una serie di strumenti pratici per implementare responsabilmente delle best practice quando si creano delle tecnologie di Intelligenza Artificiale che interagiscono con gli esseri umani.
Infatti, fra le tecnologie che vediamo coinvolte ci sono:
– Assistenti virtuali,
– Route planners,
– Auto correttori,
– Motori di raccomandazione,
– Reminders.
– Etc.
Sono tutti strumenti utili, certo, ma possono talvolta interpretare male un comando o un’immagine.
Nella peggiore delle situazioni possono anche creare danni (inutile nasconderlo).
In questo articolo parleremo delle prime 6 linee guida che sull’inizio dell’implementazione dell’Intelligenza Artificiale e della fase di interazione.
Come bisogna prepararsi per introdurre l’Intelligenza Artificiale?
Prima di partire con l’introduzione di un progetto di Intelligenza Artificiale, è sempre bene preparati.
Secondo Microsoft due sono i punti fondamentali da seguire quando si introduce l’Intelligenza Artificiale in azienda.
1. Rendere chiaro all’utente ciò che il sistema può fare – aiutare gli utenti a comprendere cos’è capace di fare il sistema di AI.
È importante stabilire le aspettative riguardo lo scopo dell’Intelligenza Artificiale.
Se stiamo pensando ad un sistema che può supportare gli utenti nello svolgere dei task in domini diversi, è importante definire cosa l’Intelligenza Artificiale può fare per il singolo task.
Ad esempio, un fitness tracker che tiene traccia dell’attività sportiva – quindi supporta l’utente a migliorare la propria attività fisica – deve essere in grado di comprendere se l’utente sta camminando o se sta andando in bicicletta.
Questo perché altrimenti l’utente potrebbe aspettarsi dei risultati, ma potrebbe anche non raggiungerli.
2. Rendere chiaro all’utente “quanto” bene può fare ciò che fa – Aiutare gli utenti a comprendere con quale frequenza il sistema può commettere degli errori
Secondo Microsoft è importante insegnare agli utenti come ragiona l’intelligenza Artificiale.
Nessun sistema di Intelligenza Artificiale è infallibile e funzionante al 100%, poiché potrebbe commettere degli errori in determinate circostanze.
Rendendo consapevole l’utente di questi potenziali errori e delle performance del sistema, non ci saranno false aspettative e quindi l’utente stesso sarà più contento di utilizzarlo.
Riprendendo l’esempio del fitness tracker, è importante che l’utente sappia se il sistema può perdere qualche passo – sulle scale o facendo dei movimenti particolari.
In questo modo le aspettative di performance saranno realistiche e non porteranno a delle delusioni che poi possono svilupparsi in insoddisfazione e conseguente abbandono del prodotto.
Dall’altra parte bisogna stare attenti a non sopravvalutare il sistema di Intelligenza Artificiale, cadendo nel cosiddetto “bias dell’automazione”, così come a non sottovalutare le sue performance, cadendo invece nell'”avversione per l’algoritmo”.
L’esempio che fa Microsoft è quello dei giudici che usano un sistema di Intelligenza Artificiale per emettere una sentenza, che potrebbero prendere delle decisioni dannose se si fidano troppo delle raccomandazioni, anche quando potrebbero essere in errore o “biased”.
Durante l’interazione
La parte dell’interazione è ciò che fa la differenza per definire come l’utente si approccerà al sistema stesso.
1. Stabilire i tempi in base al contesto – Stabilire quando il sistema deve compiere un’azione o deve interromperla in base al contesto e all’ambiente in cui si trova l’utente
I dati di interazione che riusciamo a recuperare (es. con smartphone, tablet etc.) rappresentano degli input molto interessanti per un modello di Intelligenza Artificiale perché permettono di migliorare l’interazione.
Per esempio, quando la mattina vai in macchina e colleghi il telefono al Bluetooth, Google Maps ti invia una notifica informandoti se il tragitto casa-lavoro è trafficato o meno e quanti minuti ci puoi impiegare per andare a lavoro.
Allo stesso modo, se dopo il lavoro devi recarti in palestra, in automatico Google ti propone il percorso solito.
In questo caso, l’Intelligenza Artificiale viene utilizzata per comprendere il tuo modo di vivere, darti notifiche utili e adattate al contesto.
2. Mostrare le informazioni contestualmente rilevanti – Mostrare le informazioni rilevanti all’attività dell’utente e all’ambiente che lo circonda
Quando ti trovi in una nuova città, la tua posizione GPS permette al sistema di tracciamento di cercare (e consigliarti) i ristoranti più vicini e, eventualmente, anche il tipo di cucina.
Anche qui si tratta di raccogliere dati e calcolare più variabili come input del modello per essere sempre più in linea con il comportamento dell’utente finale.
3. Considera le norme sociali più rilevanti – Assicurarsi che l’esperienza utente venga fornita secondo il contesto socio-culturale
Riprendiamo l’esempio dei ristoranti: quando scegli un ristorante sul Internet, lasci una recensione o fai una telefonata tramtie Google, stai consegnando gratuitamente delle informazioni relative a te stesso ad un modello di Intelligenza Artificiale, che le recupera e le dà un valore aggiunto (a discapito della tua privacy).
Non fanno differenza il contesto in cui ti trovi e il linguaggio dei parlanti.
Una persona che viene dagli Stati Uniti può aspettarsi un assistente virtuale basato sull’Intelligenza Artificiale più amichevole nell’interagire con lei, mentre in altre culture può essere richiesto un linguaggio più formale.
4. Mitigare i bias sociali – Assicurarsi che li linguaggio e il comportamento del sistema non rinforzi degli stereotipi o dei bias indesiderati e ingiusti
I bias sono un argomento che abbiamo ripreso più volte nel corso del tempo.
Negli ultimi tempi si è detto che l’Intelligenza Artificiale è razzista, solo perché può capitare che i dataset con cui vengono trainati i modelli, abbiano dati campionati in maniera imperfetta.
A volte ci sono problemi nella raccolta stessa dei dati, perché la disponibilità dei dati fa molto la differenza.
Di fatto, a volte il data scientist raccoglie dati dove li trova disponibili, perciò fare un campionamento che rispecchi la situazione ideale non è sempre facile.
Più dati raccogliamo, più dati riusciamo a categorizzare, più precisa e più “pulita” risulterà l’Intelligenza Artificiale finale che andremo a costruire.
Negli ultimi periodi sono venuti fuori degli errori molto gravi che gli algoritmi hanno commesso, riguardo al sistema della giustizia.
Poco tempo fa è uscita la notizia che un signore che ha trascorso un anno in carcere perché ingiustamente “riconosciuto” da un sistema di Intelligenza Artificiale negli Stati Uniti.
Questo significa che l’Intelligenza Artificiale può commettere degli errori che hanno bisogno di essere gestiti.
Ma ne parliamo nel prossimo articolo.