Rischi e vantaggi di Emotion AI: 4 consigli per usarla in modo responsabile

Nelle ultime due settimane, le emozioni sono aumentate attorno all’evoluzione e all’uso dell’intelligenza artificiale (AI) delle emozioni, che include tecnologie come l’analisi delle emozioni basata sulla voce e il rilevamento delle espressioni facciali basato sulla visione artificiale. 

La piattaforma di videoconferenza Zoom è stata criticata dopo aver affermato che potrebbe presto includere funzionalità di intelligenza artificiale per le emozioni nei suoi prodotti mirati alle vendite. Un gruppo di difesa senza scopo di lucro, Fight for the Future, ha pubblicato una lettera aperta all’azienda: ha affermato che la possibile offerta di Zoom sarebbe una “grave violazione della fiducia degli utenti”, è “intrinsecamente parziale” e “un espediente di marketing”. 


Nel frattempo, Intel e Classroom Technologies stanno lavorando su strumenti che utilizzano l’intelligenza artificiale per rilevare l’umore dei bambini nelle aule virtuali. Ciò ha portato alla copertura dei media con titoli sfortunati come ” Il software di monitoraggio delle emozioni potrebbe far male a tuo figlio perché sembra annoiato in matematica. ” 

Infine, Uniphore, una società di intelligenza artificiale con sede a Palo Alto, California e India, sta godendo dello status di unicorno dopo aver annunciato $ 400 milioni di nuovi finanziamenti e una valutazione di $ 2,5 miliardi a febbraio. Nel gennaio 2021, la società ha acquisito Emotion Research Lab , che utilizza “la tecnologia avanzata di riconoscimento delle emozioni facciali e eye-tracking per acquisire e analizzare le interazioni su video in tempo reale per migliorare il coinvolgimento tra le persone”.
Il mese scorso, ha introdotto la sua soluzione Q for Sales, che “sfrutta la visione artificiale, l’analisi tonale, il riconoscimento vocale automatico e l’elaborazione del linguaggio naturale per acquisire e formulare consigli sull’intero spettro emotivo delle conversazioni di vendita per aumentare i tassi di chiusura e le prestazioni dei team di vendita. ” 

Ma l’informatico e notoriamente licenziato, l’ ex dipendente di Google , Timnit Gebru, che ha fondato un istituto di ricerca sull’etica dell’IA indipendente nel dicembre 2021, è stato critico nei confronti delle affermazioni di Uniphore su Twitter. “La tendenza a incorporare la pseudoscienza nei ‘sistemi di intelligenza artificiale’ è così grande”, ha affermato.  

Cosa significa questo tipo di respingimento per l’impresa? In che modo le organizzazioni possono calcolare i rischi ei benefici dell’investimento nell’IA delle emozioni ? Gli esperti sostengono che la tecnologia può essere utile in casi d’uso specifici, in particolare quando si tratta di aiutare i clienti e supportare i venditori.

L’impegno per la trasparenza è fondamentale
Ma, aggiungono, un investimento nell’IA delle emozioni richiede un impegno per la trasparenza. Le organizzazioni hanno anche bisogno di una piena comprensione di ciò che gli strumenti possono e non possono fare, nonché di un’attenta considerazione su potenziali pregiudizi, privacy dei dati e ROI. 

Le odierne tecnologie di intelligenza artificiale in evoluzione “potrebbero sembrare un po’ più invasive”, ha ammesso Annette Zimmerman, vicepresidente e analista di Gartner, specializzata in IA emotiva. “Per l’impresa, penso che la trasparenza debba essere la massima priorità”. Nel dicembre 2021, Zimmerman ha pubblicato un rapporto Gartner Competitive Landscape per lo spazio dell’IA delle emozioni. Ha sottolineato che dalla pandemia, le organizzazioni stanno “cercando di aggiungere più empatia alle esperienze dei clienti”. 
Tuttavia, le organizzazioni devono anche essere sicure che la tecnologia funzioni e che il sistema sia addestrato in modo che non vengano introdotti pregiudizi, ha detto a VentureBeat. “Ad esempio, la visione artificiale è molto efficace nel rilevare emozioni evidenti come la felicità e la profonda frustrazione”, ha spiegato. “Ma per cose più sottili come l’ironia, o leggermente infastidito contro molto arrabbiato, il modello deve essere addestrato, in particolare sulle differenze geografiche ed etniche”.

L’intelligenza artificiale delle emozioni potrebbe diventare un fattore di differenziazione chiave
Zimmerman, che ha evidenziato Uniphore nel suo rapporto sul panorama competitivo, ha scritto che la combinazione di visione artificiale e analisi delle emozioni basata sulla voce “potrebbe diventare un fattore chiave di differenziazione per l’azienda”. 

In un commento inviato via e-mail a VentureBeat, Patrick Ehlen, vicepresidente dell’IA di Uniphore, ha dichiarato: “È importante sottolineare che le registrazioni delle riunioni e le applicazioni di intelligence conversazionale sono diventate mainstream nel mondo degli affari di oggi”. L’intento dell’azienda con Q for Sales, ha proseguito, “è quello di rendere le riunioni virtuali più coinvolgenti, equilibrate, interattive e preziose per tutte le parti”. 

Ci sono alcuni modi in cui “ci assicuriamo che non ci sia inquietudine”, ha aggiunto. “Chiediamo il consenso prima dell’inizio della chiamata, non profiliamo le persone durante le chiamate e non eseguiamo l’identificazione facciale o il riconoscimento facciale”. Inoltre, ha spiegato, tutti i partecipanti possono scegliere di aderire piuttosto che semplicemente rinunciare con il consenso completo di due parti all’inizio di ogni riunione video. 
Ehlen voleva anche affrontare “la confusione sul fatto che stiamo affermando di aver sviluppato un’IA che” rileva le emozioni “o sa qualcosa sugli stati emotivi interni delle persone”. Questa non è affatto l’affermazione di Uniphore, ha detto: “Piuttosto, stiamo leggendo i segnali che le persone a volte usano per comunicare le proprie emozioni, usando combinazioni di espressioni facciali e tono di voce, ad esempio”. Ad esempio, ha spiegato, la frase “Bella giornata, vero?” “Potrebbe sembrare che comunichi una cosa se consideri il testo solo in sé, ma se viene fornito con un tono di voce sarcastico e un roteare di occhi, questo comunica qualcos’altro”. 

L’analisi emotiva basata sull’intelligenza artificiale è sempre più sofisticata
L’analisi del sentiment per testo e voce è in circolazione da anni: ogni volta che chiami una linea di assistenza clienti o un contact center e senti “questa chiamata viene registrata per garantire la qualità”, ad esempio, stai sperimentando ciò che è diventato altamente sofisticato, l’intelligenza artificiale analisi conversazionale guidata. 

Zimmerman ha anche evidenziato Cogito con sede a Boston in Gartner’s Competitive Landscape come “un pioniere nella tecnologia di intelligenza artificiale basata sull’audio, che fornisce analisi delle emozioni in tempo reale per il supporto/coaching degli agenti di chiamata, nonché il monitoraggio del livello di stress”.

L’azienda ha fornito per la prima volta soluzioni di intelligenza artificiale al Dipartimento per gli affari dei veterani degli Stati Uniti, per analizzare le voci dei veterani militari con PTSD per determinare se hanno bisogno di aiuto immediato. Quindi, si sono spostati nello spazio del contact center con un sistema di analisi del sentimento basato sull’intelligenza artificiale che analizza le conversazioni e guida gli agenti del servizio clienti nel momento. 
“Offriamo una guida in tempo reale per capire come sta andando la chiamata e lo stato psicologico del chiamante”, ha affermato Josh Feast, CEO di Cogito. “Ad esempio, com’è l’esperienza delle parti coinvolte nella chiamata? Quali sono i livelli di fatica? Com’è la ricettività o la motivazione?” 

Quindi, la soluzione fornisce all’agente spunti specifici, magari consigliando loro di regolare il tono o la velocità della conversazione. Oppure, potrebbe fornire il riconoscimento che l’altra parte è angosciata. “Ciò offre l’opportunità di mostrare un po’ di empatia”, ha detto. 

Cosa devono sapere le aziende prima di investire nell’IA delle emozioni
Dai alle emozioni l’attenzione di livello C dell’IA
” I dirigenti devono sapere che l’IA delle emozioni ha grandi possibilità insieme a grandi responsabilità”, ha affermato Theresa Kushner, responsabile della pratica di dati e analisi presso NTT DATA Services. “La gestione di questi complicati algoritmi di intelligenza artificiale è qualcosa che richiede un’attenzione di livello C e non può essere delegata ai team di data scientist o al personale operativo. Dovranno comprendere il livello di impegno richiesto per implementare e rendere operativa una tecnologia controversa come l’IA per le emozioni ed essere strettamente coinvolti per assicurarsi che non sfugga di mano”.

Considera il ROI
Quando parli con diversi fornitori, assicurati che dimostrino davvero il ROI, ha affermato Zimmerman: “Devi comprendere i vantaggi dell’investimento in questa particolare tecnologia: mi aiuta ad aumentare la soddisfazione dei clienti? O mi aiuta ad aumentare la fidelizzazione e a ridurre il tasso di abbandono?” Ehlen di Uniphore ha aggiunto che le organizzazioni dovrebbero anche cercare una soluzione che possa portare un ROI immediato. “Le soluzioni in questo regno dovrebbero essere in grado di aiutare ad aumentare le interazioni umane in tempo reale e quindi diventare più intelligenti e personalizzate nel tempo”, ha spiegato. 

Comprendere l’algoritmo e la raccolta dei dati 
Le domande sulla raccolta dei dati e sull’integrazione con le soluzioni di altri fornitori dovrebbero essere sempre al primo posto, ha affermato Kushner, mentre quando si tratta di intelligenza artificiale specifica per le emozioni, le organizzazioni dovrebbero assicurarsi che la tecnologia non violi nessuno dei loro confini etici. “Pensate di chiedere se possono spiegare l’algoritmo di intelligenza artificiale che genera questa risposta emotiva? Quali dati usano per il lato emotivo dell’IA delle emozioni? Come viene raccolto? Cosa dovremo raccogliere per arricchire quel set di dati?” È anche importante comprendere le reali capacità e limitazioni della tecnologia, ha aggiunto Ehlen: “Si tratta di IA monomodale o multimodale? Siled o fuso? Questo determinerà il livello di contesto e di accuratezza che potrai eventualmente ricavare”. 

Implementare una struttura di test e apprendimento 
In questi giorni, la tecnologia dell’IA per le emozioni si è evoluta al punto che le organizzazioni stanno implementando progetti su larga scala. “Ciò richiede un’attenta riflessione sulla gestione del cambiamento, l’istituzione di un comitato direttivo e, in modo critico, l’implementazione di un tipo di struttura di test e apprendimento”, ha affermato Feast, il che può portare a nuove idee per casi d’uso. “Ad esempio, abbiamo clienti che hanno testato la nostra tecnologia per fornire agli agenti una guida in tempo reale, ma si sono anche resi conto che potevano usarla per segnalare quando gli agenti si stanno stancando e hanno bisogno di una pausa”. 

Bilanciare i rischi e le ricompense dell’IA emotiva
Secondo Zimmerman di Gartner, l’adozione della tecnologia dell’IA per le emozioni ha ancora molta strada da fare, in particolare quando si tratta di Big Tech. “Ho pensato che, visti alcuni dei progressi tecnologici che Amazon ha rivelato e alcune discussioni che ha avuto Google, molti più dispositivi avrebbero questa funzionalità, ma non possono. Penso che dal punto di vista tecnologico potrebbero farlo, ma forse sono i problemi di privacy”. 
Anche i clienti aziendali devono valutare i rischi e i benefici dell’IA delle emozioni. Kushner sottolinea che un’azienda potrebbe pensare di voler sapere come si sente veramente un cliente riguardo alla sua interazione con un call center online e impiegare la tecnologia dell’IA delle emozioni per scoprirlo. “Ma questo rischia di alienare un cliente se la tecnologia di intelligenza artificiale delle emozioni non rappresentava i sentimenti del cliente in modo appropriato e l’assistenza clienti risponde in un modo che non si adatta all’emozione che il cliente aveva espresso”, ha affermato. 

Per trovare il giusto equilibrio, ha affermato Ehlen di Uniphore, sia i fornitori che i clienti devono costruire sulla fiducia, che, a sua volta, si basa su una comunicazione aperta e sulla scelta. “Stiamo affrontando apertamente ciò che la nostra soluzione può fare ed essere chiari su ciò che non può fare”, ha affermato. “Stiamo offrendo ai clienti la possibilità di integrare o meno questo strumento nei loro impegni. Per coloro che acconsentono, seguiamo le migliori pratiche del settore per la privacy e la protezione dei dati”. 

La conclusione, ha affermato Feast, è che per avere successo con l’IA delle emozioni, le aziende devono fare in modo che la tecnologia utilizzi un vantaggio per tutti: “In ogni caso d’uso, penso che le organizzazioni debbano chiedersi ‘Va bene per l’impresa? Va bene per i dipendenti? Va bene per i consumatori?

Di ihal