I ricercatori si avvicinano al raggiungimento di un’intelligenza artificiale “emotivamente intelligente”.
 I ricercatori del Japan Advanced Institute of Science and Technology hanno integrato segnali biologici con metodi di apprendimento automatico per abilitare un’IA “emotivamente intelligente”. L’intelligenza emotiva potrebbe portare a interazioni uomo-macchina più naturali, affermano i ricercatori. 

Il nuovo studio è stato pubblicato sulla rivista IEEE Transactions on Affective Computing .

Raggiungere l’Intelligenza Emotiva
Le tecnologie di riconoscimento vocale e linguistico come Alexa e Siri sono in continua evoluzione e l’aggiunta dell’intelligenza emotiva potrebbe portarle a un livello superiore. Ciò significherebbe che questi sistemi potrebbero riconoscere gli stati emotivi dell’utente, oltre a comprendere il linguaggio e generare risposte più empatiche. 

“Analisi del sentimento multimodale” è un gruppo di metodi che costituiscono il gold standard per i sistemi di dialogo AI con rilevamento del sentimento e possono analizzare automaticamente lo stato psicologico di una persona dal suo discorso, dalle espressioni facciali, dal colore della voce e dalla postura. Sono fondamentali per creare sistemi di intelligenza artificiale incentrati sull’uomo e potrebbero portare allo sviluppo di un’intelligenza artificiale emotivamente intelligente con “capacità oltre le umane”. Queste capacità aiuterebbero l’IA a comprendere il sentimento dell’utente prima di formare una risposta appropriata. 

Analisi dei segnali non osservabili
Gli attuali metodi di stima si concentrano principalmente sulle informazioni osservabili, che tralasciano le informazioni nei segnali non osservabili, che possono includere segnali fisiologici. Questi tipi di segnali contengono molti dati preziosi che potrebbero migliorare la stima del sentiment. 

Nello studio, i segnali fisiologici sono stati aggiunti per la prima volta all’analisi del sentimento multimodale. Il team di ricercatori che ha intrapreso questo studio includeva il Professore Associato Shogo Okada del Japan Advanced Institute of Science and Technology (JSAIT) e il Prof. Kazunori Komatani dell’Institute of Scientific and Industrial Research dell’Università di Osaka. 

“Gli esseri umani sono molto bravi a nascondere i loro sentimenti”, afferma il dottor Okada. “Lo stato emotivo interno di un utente non è sempre riflesso accuratamente dal contenuto del dialogo, ma poiché è difficile per una persona controllare consapevolmente i propri segnali biologici, come la frequenza cardiaca, può essere utile utilizzarli per stimare il proprio stato emozionale. Ciò potrebbe creare un’IA con capacità di stima del sentimento che vanno oltre l’umano”. 

Lo studio del team ha comportato l’analisi di 2.468 scambi con un dialogo AI ottenuto da 26 partecipanti. Con questi dati, il team potrebbe stimare il livello di divertimento sperimentato dall’utente durante la conversazione. 

All’utente è stato quindi chiesto di valutare quanto fosse piacevole o noiosa la conversazione. Il set di dati del dialogo multimodale chiamato “Hazumi1911” è stato utilizzato dal team. Questo set di dati combina il riconoscimento vocale, i sensori del colore della voce, il rilevamento della postura e l’espressione facciale con il potenziale della pelle, che è una forma di rilevamento della risposta fisiologica.

“Confrontando tutte le diverse fonti di informazione, le informazioni sul segnale biologico si sono rivelate più efficaci della voce e dell’espressione facciale”, ha continuato il dottor Okada. “Quando abbiamo combinato le informazioni sulla lingua con le informazioni sui segnali biologici per stimare lo stato interno autovalutato mentre parlavamo con il sistema, le prestazioni dell’IA sono diventate paragonabili a quelle di un essere umano”.

Le nuove scoperte suggeriscono che il rilevamento di segnali fisiologici negli esseri umani potrebbe portare a sistemi di dialogo basati sull’intelligenza artificiale altamente emotivi. I sistemi di intelligenza artificiale emotivamente intelligenti potrebbero quindi essere utilizzati per identificare e monitorare le malattie mentali rilevando i cambiamenti negli stati emotivi quotidiani. Un altro possibile caso d’uso è nell’istruzione, in cui potrebbero identificare se uno studente è interessato a un argomento o annoiato, il che potrebbe essere utilizzato per alterare le strategie di insegnamento. 

Di ihal