Home / curiosità / Su emojify.info il gioco che mostra la supidità del riconoscimento delle emozioni dell’intelligenza artificiale AI

Su emojify.info il gioco che mostra la supidità del riconoscimento delle emozioni dell’intelligenza artificiale AI

Scopri la stupidità del riconoscimento delle emozioni dell’IA con questo piccolo gioco per browser
La tua faccia corrisponde ai tuoi sentimenti?


Le aziende tecnologiche non vogliono solo identificarti usando il riconoscimento facciale, vogliono anche leggere le tue emozioni con l’aiuto dell’IA. Per molti scienziati, tuttavia, le affermazioni sulla capacità dei computer di comprendere le emozioni sono fondamentalmente errate e un piccolo gioco web nel browser creato dai ricercatori dell’Università di Cambridge mira a mostrare il motivo.

Vai su emojify.info e puoi vedere come le tue emozioni vengono “lette” dal tuo computer tramite la webcam. Il gioco ti sfiderà a produrre sei diverse emozioni (felicità, tristezza, paura, sorpresa, disgusto e rabbia), che l’IA tenterà di identificare. Tuttavia, probabilmente scoprirai che le letture del software sono tutt’altro che accurate, spesso interpretando anche espressioni esagerate come “neutre”. E anche quando produci un sorriso che convince il tuo computer che sei felice, saprai che stavi fingendo.

Questo è il punto del sito, afferma la creatrice Alexa Hagerty, ricercatrice presso l’Università di Cambridge Leverhulme Center for the Future of Intelligence e il Center for the Study of Existential Risk: per dimostrare che la premessa di base alla base di gran parte della tecnologia di riconoscimento delle emozioni, che i movimenti facciali sono intrinsecamente legati ai cambiamenti nei sentimenti, è imperfetto.

“La premessa di queste tecnologie è che i nostri volti e sentimenti interiori sono correlati in un modo molto prevedibile”, dice Hagerty a The Verge . “Se sorrido, sono felice. Se aggrotto le sopracciglia, sono arrabbiato. Ma l’APA ha fatto questa grande revisione delle prove nel 2019 e ha scoperto che lo spazio emotivo delle persone non può essere prontamente dedotto dai loro movimenti facciali “. Nel gioco, dice Hagerty, “hai la possibilità di muovere rapidamente la tua faccia per impersonare sei emozioni diverse, ma il punto è che non hai sentito interiormente sei cose diverse, una dopo l’altra di fila”.

Per saperne di più: non ci si può fidare del “riconoscimento delle emozioni” AI
Un secondo minigioco sul sito porta a casa questo punto chiedendo agli utenti di identificare la differenza tra un ammiccamento e un battito di ciglia – qualcosa che le macchine non possono fare. “Puoi chiudere gli occhi e può essere un’azione involontaria o un gesto significativo”, afferma Hagerty.

Nonostante questi problemi, la tecnologia di riconoscimento delle emozioni sta rapidamente guadagnando terreno, con le aziende che promettono che tali sistemi possono essere utilizzati per esaminare i candidati al lavoro (dando loro un ” punteggio di occupabilità “), individuare potenziali terroristi o valutare se i conducenti commerciali hanno sonno o sonnolenza . (Amazon sta persino implementando una tecnologia simile nei suoi furgoni.)

Ovviamente anche gli esseri umani commettono errori quando leggiamo le emozioni sui volti delle persone, ma affidare questo lavoro alle macchine comporta degli svantaggi specifici. Per prima cosa, le macchine non possono leggere altri indizi sociali come possono fare gli umani (come con la dicotomia occhiolino / ammiccamento). Le macchine spesso prendono anche decisioni automatizzate che gli esseri umani non possono mettere in discussione e possono condurre la sorveglianza su vasta scala senza la nostra consapevolezza. Inoltre, come con i sistemi di riconoscimento facciale, l’intelligenza artificiale per il rilevamento delle emozioni è spesso di parte razziale , più frequentemente valuta i volti delle persone di colore come se mostrassero emozioni negative, ad esempio. Tutti questi fattori rendono il rilevamento delle emozioni dell’IA molto più preoccupante della capacità degli umani di leggere i sentimenti degli altri.

“I pericoli sono molteplici”, afferma Hagerty. “In caso di problemi di comunicazione umana, abbiamo molte opzioni per correggerlo. Ma una volta che automatizzi qualcosa o la lettura è stata eseguita a tua insaputa o misura, quelle opzioni sono sparite. “

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi