Emotion Recognition: un’invenzione non etica?
L’emotion recognition è un’invenzione non etica?
Per rispondere a questa domanda abbiamo scritto questo articolo, ma per iniziare è necessario tornare indietro ad un periodo terribile per la nostra storia.
Torniamo alla pandemia.
Vi ricordate cos’è successo: da un giorno all’altro, il 9 marzo 2020 l’Italia è entrata in zona protetta o “lockdown” per far fronte alla pandemia da Covid-19.
Da quel momento – tolti gli effetti mortali che il virus ha causato alla popolazione -, le aziende, le scuole e i professionisti si sono chiesti:
“Come facciamo a portare avanti le nostre attività?”
Per fortuna a quei tempi era possibile recarsi nelle fabbriche o nei capannoni, quindi le industrie – chi arrancando, chi meno – sono riuscite ad andare avanti.
Ma gli insegnanti che dovevano fare lezione?
O i venditori che dovevano incontrare fisicamente i clienti?
E i professionisti che dovevano dare consulenze ai clienti?
Ecco, la soluzione proposta per loro aveva come base la comunicazione visiva a distanza: la Didattica A Distanza per le scuole e le università e le videochiamate su Zoom per venditori e professionisti.
Ora, queste soluzioni hanno dato un grosso contributo – noi lo possiamo dire – nel portare avanti queste attività…
Ma avevano un problema fondamentale…
Infatti, nella comunicazione tra esseri umani, il 55% di ciò che viene “detto” viene espresso in maniera non-verbale (dalla postura, dalle espressioni facciali, dal movimento delle mani e così via).
Con la comunicazione visiva a distanza, questo 55% sostanzialmente spariva, creando molti problemi nella comunicazione.
Conosco personalmente una psicologa che mi ha confessato che le sedute di terapia in videochiamata erano frustranti per questo motivo.
Ma forse questo non sarà più un problema.
Infatti, di recente diverse aziende che si occupano di telecomunicazioni hanno calato l’asso investendo in una tecnologia basata sull’Intelligenza Artificiale che potrebbe rivoluzionare il settore delle telecomunicazioni.
Ne parleremo oggi, in questo nuovo articolo.
Che cos’è l’Emotion Recognition?
Come abbiamo detto, se nella comunicazione ti fissi solo sul messaggio che passa (che sia orale o scritto), ti perdi tutto il resto.
Infatti, il puro messaggio verbale o scritto rappresenta solo il 7% della comunicazione umana.
Il restante 93% è dato dalla parte non-verbale (55% – postura, gestualità, etc.) e dalla parte paraverbale (38% – tono, timbro, ritmo).
Tutte queste sono informazioni che, se stai affrontando una videochiamata con uno schermo davanti, sostanzialmente spariscono, poiché hai solo una visione in 2D.
Ora, cosa riesce a fare la tecnologia per la comunicazione?
Devi sapere che esiste una branca dell’Intelligenza Artificiale – l’affective computing – che si occupa dello studio di sistemi e dispositivi in grado di riconoscere, interpretare, elaborare e simulare le emozioni, gli stati d’animo e le sensazioni.
Già al giorno d’oggi esistono delle tecnologie che permettono di analizzare lo stato d’animo di una persona dalla sua espressione all’interno di un’immagine.
Esistono anche tecnologie che riconoscono lo stato d’animo di una persona dal tono della voce quando chiama, per esempio, un call center, in modo che l’operatore possa modulare il proprio tono.
Ma come funzionano?
Emotion Recognition: come funziona?
Per costruire un modello di emotion recognition, prima si prendono dei video o delle immagini rappresentativi di un’emozione specifica, per esempio la felicità.
Dopodiché ogni immagine selezionata viene etichettata con “felicità”.
Il modello poi viene trainato in diverse situazioni, poiché l’espressione della “felicità” (così come di tutte le altre emozioni) non è uguale per tutti, pertanto c’è bisogno di un dataset corposo per riconoscerle.
Uno dei campi di applicazione sta nei colloqui a distanza.
Nel momento in cui avviene l’intervista, il modello analizza e valuta le microespressioni facciali per comprendere le emozioni vissute dal candidato.
Ora, quali sono i vantaggi di questi modelli?
Lavorando dietro uno schermo è difficile apprendere le piccole espressioni non verbali, pertanto queste tecnologie aggiungono una “parte” di comunicazione.
Emotion Recognition: le tecnologie per il 2022
Intel avrebbe inventato una soluzione che viene distribuita come parte del software “Class” e mira ad aiutare nelle tecniche educative degli insegnanti consentendo loro di vedere gli stati mentali dedotti dall’IA (come noia, distrazione o confusione) tramite le loro espressioni facciali e il modo in cui interagiscono con i contenuti educativi.
Il sistema usa una tecnologia di analisi del coinvolgimento degli studenti, che cattura le immagini dei volti degli studenti con una fotocamera del computer e tramite un sistema di Computer Vision le combina con informazioni contestuali su ciò su cui uno studente sta lavorando in quel momento, per valutare lo stato di comprensione dello studente.
L’obiettivo principale è quello di migliorare le sessioni didattiche individuali consentendo all’insegnante di reagire in tempo reale allo stato d’animo di ogni studente (spingendolo in qualsiasi direzione si ritenga necessario).
Passando invece all’ambito più business, delle società di software di vendita e assistenza clienti stanno costruendo prodotti che utilizzano l’intelligenza artificiale nel tentativo di aiutare gli esseri umani a comprendere e rispondere alle emozioni umane.
Queste aziende vendono software che tentano di rilevare se un potenziale cliente è interessato a ciò che un venditore dice durante una videochiamata (tramite tono della voce, movimenti oculari e facciali o altro linguaggio del corpo non verbale) avvisandolo in tempo reale durante la riunione se qualcuno sembra più o meno coinvolto in un determinato argomento.
Questi sistemi possono indicare che il sentiment (soddisfazione, felicità, sorpresa, rabbia, disgusto, paura o tristezza) o il livello di coinvolgimento di un potenziale cliente si è alzato quando un venditore ha menzionato una particolare caratteristica del prodotto, ma poi si è abbassato quando è stato menzionato il prezzo.
Ora, sembra tutto molto bello, visto dalla prospettiva del business, ma queste soluzioni sono al momento al centro di diverse controversie, che vedremo adesso.
Controversia n° 1: è possibile riconoscere tutte le emozioni umane?
Come per tutto quello che riguarda l’Intelligenza Artificiale, nel momento in cui si parla di elementi altamente specifici da riconoscere, la situazione traballa.
Far riconoscere un sorriso di gioia ad un’Intelligenza Artificiale è facile, ma un mezzo sorriso è difficile.
Ora, finché non c’è bisogno di entrare nel dettaglio, l’Intelligenza Artificiale è un supporto.
Un sorriso sincero è facilmente riconoscibile da chiunque.
Se invece si parla di microespressioni, allora bisogna lavorare con modelli più sofisticati, integrando il dataset – attività che richiede più tempo, risorse e know-how.
Ci sono delle comunicazioni non verbali che molti non conoscono e che bisogna conoscere per identificare e labellizzare un dataset.
E la prima controversia sta proprio qui.
Infatti, i primi che hanno fatto notare i problemi di questo approccio sono stati proprio i ricercatori di psicologia.
“L’affermazione secondo cui lo stato interiore di una persona può essere accuratamente valutato analizzando il viso di quella persona si basa su prove traballanti”, ha scritto la ricercatrice Kate Crawford in un articolo del 2021 su The Atlantic.
“Le prove scientifiche disponibili suggeriscono che le persone a volte sorridono quando sono felici, si accigliano quando sono tristi o arrabbiate, e così via. Tuttavia, il modo in cui le persone comunicano rabbia, disgusto, paura, felicità, tristezza e sorpresa varia sostanzialmente tra culture, situazioni e persino tra persone all’interno di una singola situazione”.
E quest’obiezione è perfettamente legittima.
Se neanche noi esseri umani riusciamo a comprendere a pieno le emozioni, come può riuscirci l’Intelligenza Artificiale?
L’emotion recognition è una tecnologia davvero funzionante?
Partiamo dal presupposto che un modello viene costruito per uno scopo.
Quindi, se si identifica uno scopo complesso, più è difficile raggiungerlo.
Se volessimo analizzare le emozioni e gli stati d’animo di una classe di 20 bambini, si può identificare in media chi è attento o meno.
Sarebbe più complesso se volessimo identificare chi di loro è disinteressato o distratto.
Questo non significa che però sia impossibile.
Controversia n°2: gli effetti negativi sull’interlocutore
Ancora una volta ci scontriamo con la privacy.
Come abbiamo detto, con l’emotion recognition si estraggono dei caratteri sulla microespressione della persona, estrapolando lo stato emotivo.
E questo può avere delle complicazioni.
In primis, la persona ha autorizzato la registrazione?
Dal punto di vista autorizzativo legale, abbiamo la possibilità di registrare la persona, catalogarla ed classificarla in base allo stato d’animo?
Ecco, questo è un aspetto estremamente delicato.
La persona registrata deve essere informata sulla registrazione e avere pieno diritto di decidere se autorizzare o no il proprio interlocutore.
Dal punto di vista del business, questo può creare in maniera indiretta un’altra problematica…
Nell’ipotesi che la persona abbia dato autorizzazione all’emotion recognition, questa potrebbe comunque non sentirsi a proprio agio.
Durante una trattativa di vendita, per il venditore potrebbe essere difficile ottenere un risultato, perdendo l’autenticità dell’emozione.
Ci vorrà del tempo prima che questo sistema di emotion recognition entri nella mentalità delle persone.
Quali sono le possibili soluzioni a questo tipo di legittime controversie?
Dal punto di vista della privacy, la soluzione è puramente metodologica.
Quando una persona si troverà di fronte ad una telecamera che registra, analizza e valuta il suo stato emotivo, questa persona dovrà disattivare la registrazione.
In questo caso, togliamo il problema alla radice.
Questi sistemi possono essere utilizzati molto bene con gli assistenti virtuali “ologramma” che funzionano in tempo reale senza registrare i dati della persona, semplicemente per alzare il livello di qualità della comunicazione.
Questo potrebbe essere molto utile nel rapporto a distanza medico-paziente, che in questo momento sta diventando sempre più frequente poiché il medico non risponde facilmente in tempi ragionevoli.
Certo, il medico migliore è sempre quello fisico, ma se il medico non c’è?
Il medico potrebbe essere una sorta di ologramma virtuale in grado di riconoscere l’emotività del proprio paziente e modulare il proprio atteggiamento di conseguenza.
E per il problema di riconoscere a pieno le emozioni umane?
L’Intelligenza Artificiale, lo diciamo sempre, prima o poi diventerà più brava degli esseri umani, in questo caso a riconoscere le emozioni.
Se l’Intelligenza Artificiale viene trainata su questo obiettivo specifico, prima o poi riuscirà a raggiungere un livello ottimo di accuratezza.
Prima o poi questo problema sarà superato.
L’Intelligenza Artificiale è uno strumento
Se tu la vuoi utilizzare per migliorare l’attività che stai compiendo e la comunicazione, ben venga.
È chiaro che deve essere chiara la modalità, la finalità e ci deve essere consapevolezza che, ad esempio, i dati non vengano registrati o dati ad altri e può essere magari utilizzata in tempo reale per migliorare in quel momento la comunicazione.
E se anche tu stai cercando di creare un tuo sistema di emotion recognition per la tua attività…
Ci puoi contattare al numero verde 800-270-021, oppure compilare il modulo che trovi cliccando QUI.