Home Phone Email

Come mettersi al riparo dai rischi dell’Intelligenza Artificiale

Di recente il World Economic Forum ha fatto notare una cosa importante alle aziende di tutto il mondo...

Di recente il World Economic Forum ha fatto notare una cosa importante alle aziende di tutto il mondo.

Infatti, secondo un sondaggio globale di McKinsey, ogni anno si registra un aumento del 25% dell’uso dell’AI all’interno dei business.

Stando al sondaggio, il 63% delle aziende partecipanti ha registrato una crescita nei profitti stessi e una riduzione nei costi, in special modo nel marketing nelle vendite, nella produzione e nella catena di montaggio.

Ora, come diciamo da parecchio ormai, l’Intelligenza Artificiale si sta prendendo il suo spazio nel mondo del business, sempre di più.

E, appunto, le varie Intelligenze che sono installate all’interno dei business stanno accumulando un bel po’ di dati.

Questa cosa, anche se è effettivamente positiva – perché accumulare un certo numero di dati rende l’algoritmo più preciso – può portare anche a ulteriori problematiche in termini proprio di gestioni del rischio.

Cioè che questa capacità dell’Intelligenza Artificiale, tutti questi dataset che continuano ad aumentare e a crescere, possono portare degli eventuali rischi.

In questo caso, di che problematiche specificamente stiamo parlando?

Allora, dobbiamo fare alcune considerazioni iniziali.

Quando si parla di progettazione di un software di intelligenza Artificiale, si parte sempre dai tre concetti di:

  • Dataset,
  • Algoritmo,
  • Sviluppo.

Cosa significa questo?

Significa che dopo aver avviato il progetto si parte con la fase di recupero del dataset.

La parte di creazione del dataset è un po’ la parte più delicata, perché c’è bisogno che l’azienda condivida le conoscenze e allo stesso tempo i data scientist condividono una parte del lavoro, proprio per affinare il risultato.

I nostri data scientist di solito lavorano con capi reparto, o comunque chi si occupa all’interno dell’azienda del cliente di fornirci i dati.

I data scientist devono capire i valori che sono importanti e quale peso daranno a questi valori all’interno del dataset.

E questo evita a priori la questione dei bias, quelli più frequenti e più conosciuti.

Poi c’è la scelta dell’algoritmo da applicare al dataset, da cui si viene poi a creare il modello.

Ora, se questa parte di lavoro non è fatta bene, anche se il modello dovesse raggiungere l’affidabilità che ci si aspetta, potrebbe dare dei risultati un po’ strani o divaganti.

E questo è il problema di cui parlavamo, dei bias.

E qui, nell’articolo che abbiamo portato avanti, il World Economic Forum propone un framework a 12 punti, per cercare di limitare o identificare i rischi di ottenere questi risultati “strani” o “divaganti”.

Ma per la nostra esperienza, per quello che abbiamo fatto fino ad ora, questa è una delle nostre best practice che già applichiamo.

Abbiamo delle situazioni in cui:

  • non ci sono abbastanza dati
  • ci sono i dati sbagliati,
  • non ci sono dati utili.

Oppure abbiamo molti dati perché le aziende ne hanno raccolti anche esternamente.

Ma questi molti dati devono essere raffinati, puliti e circoscritti per dare il giusto peso all’interno del dataset e poi dare il risultato di AI che ci si aspetta.

Quindi, per riassumere… 

Questo modo di ragionare rientra nelle best practice che facciamo noi normalmente sui nostri progetti.

E questo proprio perché abbiamo iniziato a costruire una metodologia di lavoro proprio per cercare di dare il risultato che il cliente.

Noi abbiamo scelto quello un po’ più organizzato che però raggiunge i risultati che proponiamo e condividiamo poi con i clienti in fase iniziale.

Ora, se dobbiamo essere sinceri, il framework proposto dal WEF è molto vago (essendo una fonte divulgativa) e richiede un certo sforzo, sia da parte dell’azienda produttrice – che comunque impiegano tempo a proporre questo tipo di framework – sia dalla parte delle aziende clienti che potrebbero non avere le risorse a sufficienza.

Per dirla in termini semplici, il framework del WEF non sembra essere sostenibile.

Nel senso che richiede uno sforzo particolarmente grande da entrambe le parti.

E considerato che ci sono aziende che non si possono permettere sforzi di un certo tipo, oppure fornire dati di una certa qualità, ci sono delle alternative?

Sì, e questo è un aspetto molto importante.

Tipicamente quando si vende una soluzione di Intelligenza Artificiale, i manager e gli imprenditori la vedono come se fosse una scommessa.

Loro investono e vedranno i primi risultati fra qualche mese e avranno i primi ritorni sull’investimento ipoteticamente fra un anno.

Dopodichè, da lì ci aspettiamo il vero ritorno.

Ora, cosa potrebbe fare l’azienda per mettersi al sicuro prima di sottoscrivere un contratto con una realtà specializzata in soluzioni di Intelligenza Artificiale?

Per prima cosa, bisogna essere sicuri che l’azienda fornitrice del sistema di AI sia specializzata e focalizzata.

  • Qual è la storia dell’azienda?
  • Qual è il background dei componenti dell’azienda?
  • Quanti data scientist ha?
  • Qual è l’esperienza che hanno i data scientist?
  • Ha dei casi di successo che può comunicare?
  • Ha dei collegamenti con autorità di settore?
  • Vengono chiamati agli eventi?

Conoscere il know-how dell’azienda, in pratica, è l’elemento fondamentale, al di là di qualsiasi framework o software che può essere utilizzato.

A volte, però, non è solo questo il problema, quindi non è sapere prima che cosa fare, ma anche riuscire a seguire un progetto durante la sua implementazione, quindi anche durante l’implementazione assicurarsi che i rischi siano sempre minimizzati.

Infatti, il WEF su questo propone di utilizzare un software per fare una sorta di audit, che includa la gestione dei rischi dei sistemi di artificial intelligence. 

Il software che fa l’audit dovrebbe, secondo quanto riportato dal WEF, documentare tutti i comportamenti delle soluzioni di AI.

Tecnicamente significa monitorare lo spazio delle feature, delle caratteristiche, per investigare le dipendenze statistiche.

In parole semplici, diciamo, controllare costantemente che l’algoritmo si comporti bene.

Cosa significa che “si comporti bene”?

Significa, ad esempio, che se stiamo parlando di un algoritmo che serve per assumere del personale, questo dovrebbe sapere esattamente quali sono le caratteristiche precise che l’azienda sta cercando, quindi quali sono le skills delle persone che sono congruenti con la richiesta dell’azienda.

Secondo punto: si parla di valutazione della conformità, con una serie di requisiti definiti.

In poche parole il software audit dovrebbe controllare che – nel caso delle assunzioni – che quindi siano compliant con il GDPR e le varei normative di settore.

Terzo punto: permettere la collaborazione fra più piattaforme.

Il software dovrebbe creare una collaborazione fra chi dovrebbe gestire il rischio e i data scientist, considerando soprattutto la difficile comunicazione dei gruppi che non ragionano allo stesso modo.

Quindi, creare un software audit per le soluzioni di AI potrebbe essere la soluzione, per massimizzare i benefici e ridurre i rischi.

C’è da considerare che nel futuro non è escluso che possa essere la stessa Intelligenza Artificiale ad autoregolarsi.

Francesco Azzarita
Francesco Azzarita
Articoli: 40