Un recente articolo si è fatto riferimento all’analista di Gartner Whit Andrews, affermando che sempre più aziende stanno entrando in un’era in cui l’intelligenza artificiale (AI) è un aspetto di ogni nuovo progetto. Una di queste applicazioni di intelligenza artificiale utilizza il riconoscimento facciale per analizzare le espressioni basate sull’impronta facciale di una persona per rilevare le sue emozioni o sentimenti interni, le motivazioni e gli atteggiamenti.  

Conosciuta come IA delle emozioni o informatica affettiva, questa applicazione si basa sulla  teoria delle “emozioni di base ” [$], che afferma che le persone ovunque comunicano sei stati emotivi interni di base — felicità, sorpresa, paura, disgusto, rabbia e tristezza — usando il stessi movimenti facciali basati sulle nostre origini biologiche ed evolutive.

 
Tavola rotonda dall’alfabetizzazione ai dati alla competenza: un viaggio per intrecciare dati e apprendimento nella cultura aziendale
In apparenza, questa ipotesi sembra ragionevole, poiché le espressioni facciali sono un aspetto essenziale delle comunicazioni non verbali. 

Un recente articolo della società di analisi del settore tecnologico AIMultiple afferma che l’IA emotiva è una tecnologia emergente che “consente a computer e sistemi di identificare, elaborare e simulare sentimenti ed emozioni umane”. È un campo interdisciplinare che unisce informatica, psicologia e scienze cognitive per aiutare le aziende a prendere decisioni migliori, spesso per migliorare affidabilità, coerenza ed efficienza.

Come viene utilizzata l’IA delle emozioni
Tra i suoi usi attuali, il software di intelligenza artificiale per le emozioni è ampiamente utilizzato per valutare interviste video con candidati al lavoro per caratteristiche come “entusiasmo”, “disponibilità a imparare”, “coscienziosità e responsabilità” e “stabilità personale”. Il software viene utilizzato anche dalle guardie di frontiera per rilevare le minacce ai posti di blocco, come ausilio per il rilevamento e la diagnosi di pazienti con disturbi dell’umore, per monitorare le aule per la noia o l’interruzione e per monitorare il comportamento umano durante le videochiamate.  
L’uso di tale tecnologia sta diventando sempre più popolare. In Corea del Sud, ad esempio, l’uso dell’IA emotiva è diventato così comune nei colloqui di lavoro [$] che i coach del lavoro spesso fanno esercitarsi ai loro clienti attraverso i colloqui di intelligenza artificiale. Startup EmotionTrac commercializza software per gli avvocati per analizzare le espressioni in tempo reale per capire quali argomenti atterreranno con potenziali giurati [$]. L’Università di Tel Aviv ha sviluppato una tecnica per rilevare una bugia attraverso l’analisi dei muscoli facciali e ha affermato una precisione del 73%. Apple ha ottenuto un brevetto per “modificare il funzionamento di un agente intelligente in risposta alle espressioni facciali e/o alle emozioni”. 

Emotion AI si basa sulla pseudoscienza
Tuttavia, l’IA delle emozioni è piena di ambiguità e controversie , anche perché i ricercatori hanno stabilito che le espressioni facciali variano ampiamente tra i contesti e le culture. E ci sono prove considerevoli [$] che i movimenti facciali variano troppo ampiamente per essere segnali coerenti di significato emotivo. Alcuni sostengono che le presunte espressioni universali su cui sono costruiti i sistemi di riconoscimento rappresentino semplicemente  stereotipi culturali . Inoltre, ci sono prove crescenti che la scienza su cui si basa il rilevamento delle emozioni sia sbagliata, sostenendo che non ci sono prove sufficienti per supportare la tesi che le configurazioni facciali riflettano in modo accurato, affidabile e specifico gli stati emotivi. 

Citando Sandra Wachter, il futurista Tracey Follows ha twittato che la tecnologia “al suo meglio non ha basi comprovate nella scienza e nel peggiore è una pseudoscienza assoluta”.

 
La studiosa di etica AI Kate Crawford fa un ulteriore passo avanti, concludendo che [$] non ci sono prove valide che le espressioni facciali rivelino i sentimenti di una persona. Pertanto, le decisioni prese sulla base dell’intelligenza artificiale emotiva sono piene di incertezza. 

Questa preoccupazione sta inducendo almeno alcune aziende a ritirarsi dallo sviluppo o dall’implementazione dell’IA emotiva. Microsoft ha recentemente aggiornato il framework Responsible AI Standard che guida il modo in cui costruiscono sistemi di IA per garantire risultati più vantaggiosi ed equi e promuovere un’IA affidabile. Un risultato della loro revisione interna dei prodotti e servizi di IA che utilizzano questo framework è il ” ritiro” di funzionalità all’interno di Azure Face “che deducono stati emotivi e attributi di identità”. Secondo l’azienda, la decisione si basava sulla mancanza di consenso di esperti su come dedurre le emozioni dall’apparenza, in particolare tra dati demografici e casi d’uso, ea causa di problemi di privacy. In breve, l’azienda sta dimostrando un uso responsabile dell’IA o almeno come evitare possibili impatti deleteri dalla tecnologia.

Nonostante queste evidenti preoccupazioni, il mercato dell’IA per le emozioni è in aumento, e si prevede che crescerà a un tasso di crescita annuale composto del 12% fino al 2028. Il capitale di rischio continua a fluire nel campo. Ad esempio, Uniphore, una società che attualmente offre software che incorporano l’IA delle emozioni, ha recentemente chiuso $ 400 milioni in finanziamenti di serie E con una valutazione di $ 2,5 miliardi. 

il vaso di Pandora
La tecnologia di intelligenza artificiale per le emozioni simili è stata utilizzata dalle aziende per migliorare la produttività per diversi anni. Un articolo di Insider ha riportato che i datori di lavoro in Cina utilizzano la “tecnologia di sorveglianza emotiva” per modificare i flussi di lavoro, inclusi il collocamento dei dipendenti e le pause, per aumentare la produttività e i profitti. 

 
Non sono solo le aziende ad essere interessate a questa tecnologia. Secondo  rapporti [$] pubblicati di recente , l’Istituto di intelligenza artificiale presso l’Hefei Comprehensive National Science Center in Cina ha creato un programma di intelligenza artificiale che legge le espressioni facciali e le onde cerebrali per “discernere il livello di accettazione per l’educazione ideologica e politica”. Ai soggetti del test sono stati mostrati video sul partito al governo mentre il programma AI raccoglieva ed elaborava i dati. Ha quindi restituito un punteggio che indicava se il soggetto aveva bisogno di una maggiore educazione politica e valutava se era sufficientemente leale. Secondo l’ articolo di The Telegraph , il punteggio includeva la “determinazione del soggetto di essere grato alla festa, ascoltare la festa e seguirla”. 

Ogni ondata di innovazione crea vincitori e vinti e porta elementi che possono danneggiare segmenti della popolazione. Nel caso dell’IA emotiva, molti degli usi sono una combinazione di sorveglianza intrusiva e taylorismo , che è una miscela discutibile. Inoltre, il campo si basa su una premessa scientifica traballante e probabilmente falsa. Tuttavia, l’applicazione dell’IA emotiva è illimitata tranne che dall’opinione pubblica, poiché gli usi dell’IA rimangono in gran parte non regolamentati in tutto il mondo.

Neuroscience News pone la domanda rilevante se vorremmo una sorveglianza così intima nelle nostre vite anche se l’IA delle emozioni potesse essere progettata per leggere accuratamente i sentimenti di tutti. Questa domanda va alla questione centrale della privacy. Sebbene possano esserci casi d’uso positivi per l’IA emotiva, supponendo che fosse basata su una scienza valida, presenta comunque una pendenza scivolosa che potrebbe portare alla polizia del pensiero orwelliana . 

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi