Gli Stati Uniti vogliono regolamentare l’Intelligenza Artificiale?
Mentre la legge dell’Unione Europea sull’Intelligenza Artificiale si fa strada attraverso molteplici cicli di revisioni per mano dei deputati al Parlamento Europeo, negli Stati Uniti un’organizzazione poco conosciuta sta elaborando le proprie linee guida per aiutare a incanalare lo sviluppo di questa tecnologia.
A marzo, il National Institute of Standards and Technology (NIST – Istituto Nazionale di Standard e Tecnologia) ha pubblicato una prima bozza del suo AI Risk Management Framework, che definisce una visione molto diversa da quella dell’Unione Europea.
Infatti, sebbene la legge sull’IA dell’Unione Europea sia una legislazione, il quadro del NIST sarà del tutto volontario poiché non è un ente regolatore.
Fondato all’inizio del 20° secolo, il NIST crea standard e sistemi di misurazione per tecnologie che vanno dagli orologi atomici ai nanomateriali, a cui è stato chiesto di elaborare le linee guida dell’IA nel 2020 dal Congresso degli Stati Uniti.
E di recente il loro framework ha dato il via alle prime “regolamentazioni” dell’Intelligenza Artificiale, e anche diverse critiche.
Come tutti i testi regolamentativi, si parte dalla definizione di rischio
Il rischio è una misura dell’estensione in cui un’entità è influenzata negativamente da una circostanza o da un evento potenziale.
Tipicamente, il rischio è l’unione tra:
1) Gli impatti negativi che potrebbero verificarsi se la circostanza o l’evento si verificassero;
2) La probabilità che si verifichi la circostanza o l’evento non controllati che danno adito ad errore.
Sebbene i processi di gestione del rischio affrontino gli impatti negativi, questo framework intende offrire approcci per:
1) Ridurre al minimo gli impatti negativi dei sistemi di Intelligenza Artificiale,
2) Identificare le opportunità per massimizzare gli impatti positivi.
E lo fa identificando due tipologie di caratteristiche e delle linee guida.
Come deve essere un algoritmo tecnicamente corretto: le caratteristiche tecniche
ACCURATO
L’accuratezza indica la precisione con cui un modello dà un risultato, ossia il grado in cui il modello di machine learning acquisisce correttamente una relazione esistente all’interno dei dati di training.
AFFIDABILE
L’affidabilità indica se un modello genera costantemente gli stessi risultati, entro i limiti accettabili dell’errore statistico, anche a fronte di situazione variabili.
ROBUSTO
La robustezza indica la sensibilità minima alle variazioni di fattori o problemi incontrollabili. Un modello robusto continuerà a funzionare nonostante l’esistenza di problemi o cambiamenti di variabili nei suoi componenti. Le misure di robustezza vanno dalla sensibilità nei confronti degli output di un modello a piccoli cambiamenti nei suoi input, ma potrebbero anche includere errori di misura su nuovi dataset.
RESILIENTE
Un modello in grado di resistere agli attacchi “avversi” o, più in generale, a cambiamenti imprevisti esterni, può essere definito resiliente. A fronte di qualsiasi input, deve riuscire a dare un output accettabile e contestualizzato.
Come deve essere l’algoritmo per gli esseri umani: le caratteristiche socio-tecniche
Le caratteristiche socio-tecniche si riferiscono al modo in cui i sistemi di Intelligenza Artificiale vengono utilizzati e percepiti in contesti individuali, di gruppo e sociali.
SPIEGABILE
La spiegabilità (neologismo inventato ad hoc) indica che è posisbile fornire una descrizione programmatica, a volte causale, di come vengono generate i risultati del modello. In genere, più un modello è opaco, meno è considerato spiegabile.
INTERPRETABILE
L’interpretabilità si riferisce al significato dell’output di un modello nel contesto in cui è stato progettato. L’interpretabilità del modello si riferisce alla misura in cui un utente può determinare l’aderenza al suo scopo e le conseguenti implicazioni di questo output su altre decisioni per quell’utente. Se per esempio l’output è una data per un previsionale, questo va contestualizzato.
CONFORME ALLA PRIVACY
La privacy si riferisce generalmente alle norme e alle pratiche che aiutano a salvaguardare valori come l’autonomia e la dignità umana. Queste norme e pratiche in genere riguardano la libertà dall’intrusione o il controllo degli individui sugli aspetti delle loro identità (ad esempio, corpo, dati, reputazione). C’è da dire che l’Intelligenza Artificiale, di fatto, non ha necessità di sapere che un determinato dato è associato ad una determinata persona. Il dato viene associato ad un ID anonimo e basta. Amazon, per esempio, associa i comportamenti all’ID, dopodiché, al di fuori del contesto di IA, viene fatto un collegamento logico con i dati dell’acquirente.
SICURO
La sicurezza come concetto è altamente correlata al rischio e generalmente denota l’assenza (o la minimizzazione) di guasti o condizioni che rendono pericoloso un sistema per gli esseri umani. Gli approcci pratici per la sicurezza dell’IA spesso riguardano simulazioni rigorose e test nel dominio, monitoraggio in tempo reale e capacità di spegnere o modificare rapidamente i sistemi che si comportano in modo anomalo.
AL RIPARO DAI BIAS
Il NIST ha identificato tre categorie principali di bias nell’IA: sistemici, computazionali e umani, quest’ultimi vengono trasmessi più facilmente. Mentre il bias non è sempre negativo, alcuni bias nei modelli e nei sistemi di IA possono amplificare gli impatti negativi su individui, organizzazioni e società, e a una velocità e scala ben oltre le discriminazioni tradizionali che possono derivare da pregiudizi umani.
I principi guida da rispettare nella creazione dell’algoritmo
I principi guida del framework si riferiscono a norme e valori sociali più ampi che indicano le priorità della società.
Le tecnologie di IA dovrebbero essere sviluppate e implementate in modi che soddisfino le norme contestuali e i valori etici.
I principi guida rilevanti per il rischio dell’IA includono equità, responsabilità e trasparenza.
EQUITÀ
Gli standard di equità possono essere complessi e difficili da definire a causa delle percezioni di equità differiscono tra le culture. Banalmente, in un dataset possono esserci bevitori di tè, caffè e succo di frutta, e il dataset dovrebbe rappresentarli tutti e tre in maniera equilibrata.
RESPONSABILITÀ
La responsabilità nel contesto dell’IA è legata all’aspettativa nei confronti della parte responsabile nel caso in cui si realizzi un esito rischioso. I singoli operatori umani e le loro organizzazioni dovrebbero essere responsabili e ritenuti responsabili dei risultati dei sistemi di IA, in particolare degli impatti negativi derivanti dai rischi. Fondare le pratiche organizzative e le strutture di governo per la riduzione del danno, come la gestione del rischio, può aiutare a portare a sistemi più responsabili.
TRASPARENZA
La trasparenza cerca di porre rimedio a uno squilibrio di informazioni comune tra gli operatori del sistema di IA e gli utenti del sistema. La trasparenza riflette la misura in cui le informazioni sono disponibili per un utente quando interagisce con un sistema di intelligenza artificiale. In assenza di trasparenza, gli utenti sono lasciati a indovinare su questi fattori e possono fare ipotesi ingiustificate e inaffidabili sulla provenienza del modello.