Choose Colour style

unione europea - intelligenza artificiale

L’Unione Europea ha finalmente iniziato a regolamentare l’Intelligenza Artificiale.

Ora, prima di parlare di questo argomento, bisogna fare un passo indietro.

Partiamo da un’indagine molto importante che è stata fatta dalla Boston Consulting Group (BCG).

Una parte di questa indagine, condotta a livello globale sul mondo delle imprese, corrisponde ad una classifica delle aziende più innovative del mondo.

Secondo te, chi possiamo trovare in cima alla classifica?

Apple, Microsoft, Amazon, Google e simili, anche se era piuttosto scontato.

Così come (forse) era scontato che nella Top 10 non ci fosse alcuna azienda europea.

(Per onestà bisogna dire che la Siemens, una multinazionale tedesca, è all’11esimo posto, ma la sostanza non cambia).

Ora, come ci si spiega questa triste assenza di aziende europee nella top 10?

La risposta, secondo il managing director della BCG, sta nel fatto che gli Stati Europei e gli amministratori delegati in Europa:

  1. Fanno molta fatica ad impegnarsi nell’innovazione;
  1. Spendono per la ricerca e lo sviluppo complessivamente molto meno rispetto alla Cina e agli Stati Uniti.

E come ci si spiega ulteriormente questo trend negativo?

In Europa, in realtà, noi non ci fidiamo di alcuna innovazione tecnologica, che arriva qui da noi puntualmente in ritardo.

E noi non ci fidiamo neanche del motore ultimo dell’innovazione, l’Intelligenza Artificiale, pertanto non investiamo…

Questo fenomeno ha spinto l’Unione Europea a formare una Board sull’Intelligenza Artificiale e a stilare una serie di regole per l’utilizzo dell’Intelligenza Artificiale.

Seguendo questo percorso, l’Unione Europea vorrebbe infondere più fiducia nei cittadini europei, il che vorrebbe dire anche più investimenti in questo nuovo tipo di tecnologia.

Quindi, vediamo un po’ più a fondo che cosa c’è scritto esattamente in questo documento.

***

Le categorie di rischio dell’Intelligenza Artificiale secondo l’Unione Europea

Facciamo una precisazione, innanzitutto.

Il documento realizzato dal Board dell’Unione Europea è ‘solo’ una proposta di adozione di un quadro normativo.

Però è già positivo il fatto che si cominci a mettere nero su bianco una regolamentazione dell’Intelligenza Artificiale dell’Intelligenza Artificiale.

Questo aiuterà i cittadini europei a rendersi più consapevoli dell’Intelligenza Artificiale.

Ora, il documento che ha presentato il Board è molto particolare, perché non descrive un modo corretto di usufruire dell’Intelligenza Artificiale.

Anzi, descrive i rischi potenziali dei sistemi di Intelligenza Artificiale, suddividendoli in base al potenziale danno a cui sottopongono gli individui.

Il regolamento prevede di suddividere le categorie in 4 livelli di rischio.

Partiamo dal livello più basso.

Rischio minimo

In questa categoria rientra la stragrande maggioranza dei sistemi di Intelligenza Artificiale.

Alcuni li utilizziamo già da tempo e sono i sistemi di Intelligenza Artificiale che non hanno alcun rischio diretto o indiretto sull’utilizzo.

Tra questi troviamo lo spam filtering o anche applicazioni dell’Intelligenza Artificiale utilizzata nei videogiochi.

In questi casi il rischio è evidentemente minimo, perciò non è richiesta alcuna accortezza particolare.

Salendo un po’ di livello abbiamo le applicazioni cosiddette a rischio limitato.

Rischio limitato

In questa categoria rientrano i sistemi che hanno come obbligo quello di essere trasparenti e informare gli utenti rispetto al loro utilizzo.

Citando direttamente il sito dell’Unione Europea: quando un utente utilizza un chatbot basato su un’Intelligenza Artificiale, questo dovrebbe essere informato sul fatto che sta interagendo con una macchina.

E fortunatamente è una prassi già in atto.

Salendo di livello si passa alle questioni davvero serie.

Alto rischio

In questa categoria rientrano i sistemi potenzialmente pericolosi, perché potrebbero impattare sulla qualità della vita delle persone.

Tra queste abbiamo alcune applicazioni importanti come i robot chirurgici o i mezzi di trasporto automatici, che evidentemente possono creare dei danni in fase di utilizzo, se progettati male.

Ma si possono anche trovare applicazioni dell’Intelligenza Artificiale altamente rischiose senza per forza mettere a rischio la vita degli individui.

Facciamo qualche esempio:

  • Credit scoring automatico che impediscono l’accesso ad un mutuo,
  • Smistamento automatico dei curriculum che impediscono l’accesso al lavoro,
  • Sistemi di riconoscimento immagini che sbagliano l’autenticazione dei documenti.

Ed essendo una categoria, per l’appunto, ad alto rischio, è la prima ad essere soggetta ad obblighi molto stretti, come la valutazione dei rischi, dataset di altissima qualità, documentazione dettagliata e informative per gli utenti.

Cosa ci può essere oltre la categoria “ad alto rischio”?

Rischio inaccettabile

In cima alla lista, cioè tra le applicazioni più a rischio, ci sono le applicazioni che vengono dette “a rischio inaccettabile”.

In questa categoria ricadono tutte le applicazioni dell’Intelligenza Artificiale che sono considerate come una chiara minaccia alla sicurezza, alla vita e ai diritti degli individui.

E pertanto sono proibite.

Ecco, in questa categoria potrebbero rientrare i sistemi che vanno volutamente a manipolare il comportamento umano, come nel caso di giochi che possono spingere i bambini a compiere azioni pericolose.

Oppure un’applicazione che fa molta paura, è quella del social scoring dei cittadini, che dà un punteggio agli individui affinché i governi possano togliere o dare loro privilegi e diritti.

E cos’ha deciso l’Unione Europea per scongiurare questi rischi dell’Intelligenza Artificiale?

Con ogni probabilità ci sarà un iter di controllo per verificare il livello di rischio del sistema di Intelligenza Artificiale che deve essere messo sul mercato.

Ci sarà un protocollo da seguire che partirà dall’analisi del sistema, poi una certificazione di conformità tramite degli enti specifici, e infine una registrazione in un database dell’Unione Europea.

Certo, questa è una garanzia importante a tutela di tutti gli utilizzatori finali di questi sistemi che in qualche modo potranno sentirsi più sereni perché il sistema sarà garantito da un authority superiore.

Ma abbiamo notato che il documento proposto ha un grosso problema…

L’Unione Europea ha definito delle fasce di rischio per gli utenti non delle linee guida per chi crea sistemi di Intelligenza Artificiale

Ebbene sì, non ci sono delle linee guida per chi crea queste Intelligenze Artificiali.

Ci sono invece delle linee guida che arrivano invece dagli Stati Uniti, principalmente dalla Federal Trade Commission (FTC), che ha iniziato ad impostare dei punti di riferimento per chi sviluppa sistemi di Intelligenza Artificiale.

La cosa interessante è che questi punti rispecchiano molto i nostri valori aziendali e il rapporto che noi di BlueTensor ci teniamo a mantenere con il cliente (giusto per vantarci un pochino).

I punti sono 4 e possiamo elencarli velocemente per poi esprimere un pensiero di insieme.

  1. Dataset di ottima qualità

Per noi avere un dataset di alta qualità è fondamentale.

Se non abbiamo dati a disposizione o se i dati non sono conformi con l’obiettivo che il cliente ci impone di raggiungere, spesso alziamo la mano dicendo:

“Signori, in questa situazione è difficile pensare di costruire un tipo di Intelligenza Artificiale”.

Naturalmente, una volta stabilita la qualità del dataset, si passa al punto 2, è a livello di trasparenza, quello che noi in più puntate del podcast abbiamo ripreso come differenza fra black-box e white-box.

  1. Trasparenza

Quando viene costruita l’Intelligenza Artificiale per il cliente, noi stiamo molto attenti a spiegare se per quello specifico problema o obiettivo c’è bisogno di una black box o di una white-box.

La black-box è un’Intelligenza Artificiale che in autonomia costruisce il proprio flusso di lavoro e il suo flusso di ragionamento.

Se invece si tratta di una white-box riusciamo a ricostruire il flusso di lavoro e di “pensiero” che ha l’Intelligenza Artificiale, e pertanto è trasparente.

Per onestà però dobbiamo specificare una cosa: la scelta fra white-box e black-box non è sempre dettata dalla facilità di trasparentizzare l’algoritmo di Intelligenza Artificiale, ma più dal peso che ha il problema rispetto all’algoritmo.

Ci sono ancora molti algoritmi che si basano su black-box e che comunque hanno un livello di affidabilità molto alto.

E a volte creare un white box porterebbe risultati insufficienti dal punto di vista del cliente.

E questo ci porta al terzo punto, in cui una delle regole fondamentali anche per noi, per non creare poi delle false illusioni con i clienti, è proprio non promettere cose che l’Intelligenza Artificiale non può fare.

  1. Promesse reali, non gonfiate

L’Intelligenza Artificiale può portare risultati da effetto wow, ma è chiaro che questa forma di stupore è circoscritta a ciò che vuole il cliente.

Abbiamo dei dati, abbiamo un progetto, abbiamo un timing, dobbiamo attenerci a ciò che riusciamo a fare davvero e non fare promettere fuori scopo – out of scope – e rischiare poi di deludere un cliente.

Il quarto punto di seguito è molto importante su alcuni progetti, soprattutto nel settore della salute su cui noi stiamo lavorando.

  1. Comunicazione sull’utilizzo dei dati

Di fatto, l’Intelligenza Artificiale non ha la necessità di usare dati legati alla privacy delle persone.

I dati vengono sempre anonimizzati.

Non c’è la necessità di creare un collegamento fra il dato inserito e la persona reale, perché per l’Intelligenza Artificiale qualsiasi dato viene tradotto in un numero privo di identità.

Naturalmente, però, all’interno dei CRM, all’interno dei database dei nostri clienti, i dati hanno comunque un allineamento tra ciò che è il mondo reale e il dato sensibile.

Quindi sta a noi poi far presente al cliente finale cosa viene fatto con quei dati, quali sono i risultati che verranno ottenuti e come verranno ottenuti, sempre nella massima trasparenza.

Proprio per far vedere che non c’è nulla di nascosto e tutto è alla portata di mano e alla capacità del cliente di vedere quello che succede.

Vuoi ‘scoprire’ come lavoriamo noi di BlueTensor?

Bene, è sufficiente che compili il modulo che trovi QUI.

Oppure puoi telefonarci al numero verde 800.270.021.

Un nostro operatore ti risponderà il prima possibile.

A presto!