Intelligenza Artificiale e Legge, a che punto siamo?
Intelligenza Artificiale e Legge, a che punto siamo?
Per ora il divario fra Intelligenza Artificiale e legge in Europa è molto largo, mentre negli altri stati si sta riducendo sempre di più.
Infatti, i legislatori e gli specialisti oltreoceano si stanno chiedendo come la legge dovrebbe gestire l’Intelligenza Artificiale, ponendosi una semplice domanda:
“Se l’Intelligenza Artificiale commette un errore a livello legale, come bisogna comportarsi?”
La colpa è dell’Intelligenza Artificiale? Del creatore? Di chi ha acquistato la soluzione?
Ne parliamo in questo articolo.
Intelligenza Artificiale e legge: partiamo da un incidente stradale…
Come saprai, in America esistono già da tempo le cosiddette “autovetture autonome”, cioè delle auto capaci di viaggiare senza conducente.
Nel 2018 una di queste macchine ha ‘commesso’ il suo primo omicidio stradale.
Si trattava di una vettura autonoma di Uber – il colosso dei trasporti – che stava viaggiando in fase di test notturno su una strada poco trafficata.
A bordo aveva un passeggero di sicurezza che avrebbe dovuto fermare l’auto nei momenti di pericolo.
Infatti, l’auto era comunque in fase di test e poteva anche frenare quando non c’era bisogno, oppure – come nel caso che vedremo – accelerare di fronte ad un passante.
Ecco, di fatto l’auto non ha visto una signora che passava lì con la bicicletta, il passeggero non è intervenuto, e l’auto ha colpito la signora.
Pur considerato che la signora non avrebbe dovuto attraversare la strada, da qui si è aperta una grossa discussione:
In una questione fra Intelligenza Artificiale e legge, di chi è la responsabilità?
Stando agli atti, nel 2020 il passeggero di sicurezza è stato condannato, e non Uber (che non è stata sfiorata da questo scandalo).
Ma quella volta è andata bene ad Uber perché c’era un passeggero umano a bordo, perciò era quasi inevitabile che la responsabilità venisse addossata al passeggero umano.
Ma in una situazione più classica, cioè con l’auto priva di passeggero, come sarebbe andata?
Ecco, in questi casi sarebbe più difficile trovare dei responsabili.
La responsabilità è dell’azienda che ha prodotto il macchinario?
…del data scientist che ha creato gli algoritmi o che ha lavorato sul dataset?
…di chi si è occupato del training dei modelli?
Da un lato sappiamo che dietro la costruzione di un modello di Intelligenza Artificiale ci sono diverse figure.
Dall’altro sappiamo che la legislatura relativa all’Intelligenza Artificiale sta iniziando solo adesso a svilupparsi.
Qualche settimana fa abbiamo pubblicato un articolo su come l’Unione Europea abbia deciso di monitorare l’Intelligenza Artificiale, certo…
Sta di fatto che presto o tardi la legislatura sarà più solida e si riuscirà ad avere più chiarezza al riguardo e quindi a definire meglio le responsabilità.
La cosa certa al momento è che è importante comprendere come evitare questo tipo di conseguenze, e quindi anticipare le problematiche che potrebbero avvenire.
Come approfondiremo nel prossimo paragrafo.
Come selezionare una soluzione di Intelligenza Artificiale che non crei problemi con la legge
Quando in passato si creavano i software, gli errori erano di funzionalità oppure dello sviluppatore.
In quel caso si poteva monitorare il software con dei test, si poteva limitare i casi d’uso.
Nel caso dell’Intelligenza Artificiale, le cose cambiano un pochino…
È il dataset o il materiale che viene utilizzato per creare il modello a trasmettere l’errore all’Intelligenza Artificiale.
Il problema è che l’Intelligenza Artificiale si comporta in base a quello che noi le facciamo imparare.
Infatti, se noi insegniamo ad un’autovettura autonoma che per strada potrebbe trovare un passante, lei proverà ad evitarlo.
Questo significa che la creazione del dataset è una delle fasi più importanti del processo di sviluppo di un sistema di Intelligenza Artificiale.
E quando si tratta di Intelligenza Artificiale e legge, questa fase deve avere ancora più importanza rispetto a tutto il resto.
Perciò vediamo come evitare problemi.
Prima di tutto l’azienda che produce sistemi di Intelligenza Artificiale deve rispettare un valore, la trasparenza.
L’azienda che produce sistemi di Intelligenza Artificiale deve garantire dei livelli di performance e affidabilità nei confronti dell’azienda cliente.
Questo va sottolineato soprattutto quando il cliente si fa delle fantasie sui risultati del sistema…
Anche a noi capita spesso di dare il cosiddetto ‘effetto wow’ al cliente, ma c’è sempre bisogno che si mantengano i piedi per terra.
Questo perché spesso i dati che abbiamo a disposizione devono essere accuratamente selezionati.
Se i dati non fossero selezionati accuratamente, il dataset potrebbe introdurre dei bias, cioè dei pattern ‘sbagliati’ che possono far commettere degli errori logici.
Naturalmente è un effetto collaterale del fatto di insegnare ad un software ad interagire con il mondo di noi esseri umani.
Infatti, un dataset è tendenzialmente un insieme di numeri messi in colonne che noi esseri umani non riusciamo a vedere nella loro completezza.
Un sistema di Intelligenza Artificiale, con i suoi cicli di training e di inferenza, può trovare questi pattern grazie al potere di calcolo.
L’Intelligenza Artificiale può trovare dei pattern sbagliati che noi non vediamo, pertanto può produrre degli errori.
Perciò la fase di creazione del dataset non va mai sottovalutata, così come la fase di analisi.
Anche qui in BlueTensor, nella fase di creazione del dataset, siamo molto sinceri e trasparenti con il cliente, con gli obiettivi che vogliamo raggiungere.
Se l’efficienza è più bassa di quella che avevamo progettato è chiaro che ne saremo responsabili finché l’obiettivo non verrà raggiunto.
Cosa ci auguriamo per il futuro
Nel caso in cui l’errore porti ad un danno economico, speriamo che in futuro ci saranno delle assicurazioni per coprirli.
Diverso è il caso in cui il danno può provocare la morte di una persona.
In questo caso si entra nell’ambito del penale, perciò la questione si complica di molto.
Se oggi l’arresto di emergenza di un automezzo non interviene e la macchina va a tamponare l’auto che ha di fronte, la colpa è del conducente.
Ma se il conducente non c’è perché è un’Intelligenza Artificiale, di chi è la colpa?
Potrebbe essere di chi ha sviluppato il software?
Potrebbe essere di un sensore che semplicemente ha smesso di funzionare?
Quindi, si apre un ventaglio molto più ampio di questioni da considerare e mi auguro che chi si occupa della giurisprudenza e di fare le leggi, tutto questo venga poi affrontato e risolto.