Emotional AI e gen Z: l’atteggiamento verso la nuova tecnologia e le sue preoccupazioni
Un nuovo studio esamina i fattori socio-culturali che influenzano l’accettazione della nuova tecnologia di intelligenza artificiale tra la Generazione Z

L’intelligenza artificiale (AI) governa tutto ciò che oggi rientra nella “tecnologia intelligente”. Dalle auto a guida autonoma agli assistenti vocali sui nostri smartphone, l’IA ha una presenza onnipresente nella nostra vita quotidiana. Eppure, mancava una caratteristica cruciale: la capacità di coinvolgere le emozioni umane.

Lo scenario sta cambiando rapidamente, tuttavia. Gli algoritmi in grado di percepire le emozioni umane e interagire con esse stanno rapidamente diventando mainstream man mano che vengono incorporati nei sistemi esistenti. Conosciuta come “IA emotiva”, la nuova tecnologia raggiunge questa impresa attraverso un processo chiamato “raccolta dati non consci” (NCDC), in cui l’algoritmo raccoglie dati sul battito cardiaco e sulla frequenza respiratoria dell’utente, toni della voce, espressioni micro-facciali, gesti, ecc. per analizzare i loro stati d’animo e personalizzare di conseguenza la sua risposta.

Tuttavia, la natura non regolamentata di questa tecnologia ha sollevato molte preoccupazioni etiche e sulla privacy. In particolare, è importante conoscere l’atteggiamento dell’attuale fascia demografica più numerosa nei confronti dell’NCDC, ovvero la Generazione Z (Gen Z). Costituendo il 36% della forza lavoro globale, è probabile che la Gen Z sia la più vulnerabile all’IA emotiva. Inoltre, gli algoritmi di intelligenza artificiale sono raramente calibrati per le differenze socio-culturali, rendendo la loro implementazione ancora più preoccupante.

 

In un nuovo studio reso disponibile online il 9 giugno 2022 e pubblicato nel Volume 70 di Technology in Society il 22 giugno 2022 , un team di ricercatori, tra cui il Prof. Peter Mantello e il Prof. Nader Ghotbi della Ritsumeikan Asia Pacific University, Giappone, Manh- Tung Ho, Minh-Hoang Nguyen e Hong Kong T. Nguyen, che sono dottorandi della Ritsumeikan Asia Pacific University, e il dottor Quan-Hoang Vuong della Phenikaa University, Vietnam, si sono sforzati di scoprire i fattori che governano la risposta della Gen Z all’IA emotiva. “ L’NCDC rappresenta un nuovo sviluppo nelle relazioni uomo-macchina e sono molto più invasive rispetto alle precedenti tecnologie di intelligenza artificiale. Alla luce di ciò, è urgente comprendere meglio il loro impatto e l’accettazione tra i membri della Gen Z”, afferma il prof. Mantello. Lo studio faceva parte del progetto “Emotional AI in Cities: Cross Cultural Lessons from UK and Japan on Designing for an Ethical Life” finanziato da JST-UKRI Joint Call on Artificial Intelligence and Society (2019), Grant No. JPMJRX19H6.

Il team ha intervistato 1015 intervistati della Gen Z in 48 paesi e 8 regioni in tutto il mondo. Ai partecipanti è stato chiesto del loro atteggiamento nei confronti dell’NCDC, utilizzato sia da attori commerciali che statali. Hanno quindi utilizzato un’analisi multilivello bayesiana per controllare le variabili e osservare l’effetto di ciascuna variabile alla volta.

Il team ha rilevato che, nel complesso, oltre il 50% degli intervistati era preoccupato per l’uso dell’NCDC. Tuttavia, l’atteggiamento variava in base al sesso, al reddito, al livello di istruzione e alla religione.

 

” Abbiamo scoperto che essere maschio e avere un reddito elevato erano entrambi correlati all’avere atteggiamenti positivi nei confronti dell’accettazione dell’NCDC. Inoltre, le major erano più tolleranti nei confronti dell’NCDC”, sottolinea il prof. Ghotbi. È stato riscontrato che anche fattori culturali, come la regione e la religione, hanno avuto un impatto, con persone del sud-est asiatico, musulmani e cristiani che hanno segnalato preoccupazioni per l’NCDC.

 

“ Il nostro studio dimostra chiaramente che i fattori socioculturali hanno un profondo impatto sull’accettazione della nuova tecnologia. Ciò significa che le teorie basate sul modello di accettazione della tecnologia tradizionale di Davis, che non tiene conto di questi fattori, devono essere modificate”, spiega il Prof. Mantello.

 

Lo studio ha affrontato questo problema proponendo un approccio basato su modello “spugna mentale” che tiene conto dei fattori socioculturali nella valutazione dell’accettazione della tecnologia dell’IA. Inoltre, ha anche suggerito una comprensione approfondita dei potenziali rischi della tecnologia per consentire una governance efficace e una progettazione etica. “ Sono necessarie iniziative di sensibilizzazione pubblica per sensibilizzare la popolazione sulle implicazioni etiche dell’NCDC. Queste iniziative devono considerare le differenze demografiche e culturali per avere successo”, afferma il dottor Nguyen.

Nel complesso, lo studio mette in evidenza la misura in cui le tecnologie emotive AI e NCDC sono già presenti nelle nostre vite e i compromessi sulla privacy che implicano per le giovani generazioni. Pertanto, è urgente assicurarsi che queste tecnologie servano bene sia per gli individui che per le società.

Speriamo che l’IA emotiva sia all’altezza della fiducia che sta alla base della nostra accettazione di essa.

Manh-Tung Ho 1,2.3 , Peter Mantello 1 , Nader Ghotbi 1 , Minh-Hoang Nguyen 1,2 , Hong Kong T. Nguyen 2 , Quan-Hoang Vuong 2

Ripensare l’accettazione tecnologica nell’era dell’IA emotiva: rilevamento degli atteggiamenti della Gen Z (Zoomer) nei confronti della raccolta di dati inconscia

Peter Mantello è professore di media, etica e tecnologia presso la Ritsumeikan Asia Pacific University in Giappone. La sua area di specializzazione si concentra sull’intersezione tra tecnologia, conflitto, intelligenza artificiale e sorveglianza. È il fondatore di etica.ai, un laboratorio di ricerca dedicato allo sviluppo dell’IA incentrata sull’uomo, e il co-fondatore di theVisionMachine.com, un progetto multipiattaforma dedicato alle questioni relative alla guerra, alla pace e ai media. Ha pubblicato 27 articoli su questi argomenti.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi