L’avvento di intelligenze artificiali sempre più realistiche presenta una situazione complessa. Con l’avanzare di queste entità digitali sofisticate, la nostra capacità di fidarci di coloro con cui interagiamo potrebbe essere seriamente compromessa. Questa problematica è stata oggetto di una recente ricerca condotta dall’Università di Göteborg, che ha indagato le ripercussioni dei sistemi avanzati di intelligenza artificiale sulle nostre relazioni interpersonali e sulla fiducia.
In un mondo in cui i truffatori potrebbero essere ingannati nell’interagire con intelligenze artificiali, credendo di parlare con esseri umani reali, è evidente che la tecnologia ha raggiunto un livello di realismo impressionante, ma anche inquietante. Il professor Oskar Lindwall, esperto in comunicazione presso l’Università di Göteborg, pone l’accento sulla cruda realtà di questa situazione, notando quanto tempo possa trascorrere prima che le persone si rendano conto di essere effettivamente in contatto con un sistema digitale e non con un essere umano.
Questa problematica è stata analizzata in un articolo congiunto di Lindwall e del professore di informatica Jonas Ivarsson, intitolato “Menti sospettose: Il problema della fiducia e degli agenti di conversazione”.
La loro ricerca mette in luce come le persone interpretano e rispondono alle situazioni in cui sospettano che un’intelligenza artificiale possa essere l’altra parte di una conversazione. Inoltre, esplora gli effetti dannosi che il sospetto può avere sulle relazioni, spingendoci a riflettere su come l’IA possa inavvertitamente seminare dubbi nelle nostre interazioni interpersonali.
Ad esempio, prendiamo in considerazione una relazione romantica in cui uno dei partner diventa eccessivamente sospettoso, portando a gelosia e alla successiva ricerca di segni di tradimento. Questa progressiva erosione della fiducia può rapidamente diventare corrosiva, rischiando di distruggere la relazione. La ricerca condotta da Lindwall e Ivarsson ha evidenziato come, durante le interazioni tra persone, alcuni comportamenti venivano erroneamente interpretati come segni che un partecipante fosse un robot. Ciò dimostra quanto sia profondo il problema della fiducia che permea sempre di più le nostre interazioni sociali.
Gli autori mettono in discussione l’attuale etica del design che guida lo sviluppo dell’IA, in cui la continua ricerca di caratteristiche umanoidi può portare a complicazioni indesiderate. Infatti, sebbene un’intelligenza artificiale che emuli la comunicazione umana possa sembrare desiderabile, l’ambiguità che essa introduce può generare ansia riguardo alla vera natura dell’interlocutore. Ivarsson, ad esempio, solleva preoccupazioni riguardo all’uso di voci artificiali simili a quelle umane, sottolineando come esse possano creare un senso di intimità e favorire false impressioni basate esclusivamente su segnali uditivi.
La loro ricerca sulle chiamate fraudolente pone l’accento su questo punto, evidenziando come la credibilità di una voce umana e le supposizioni basate sull’età percepita possano notevolmente prolungare l’inganno. Man mano che l’IA acquisisce caratteristiche sempre più umanoidi, le nostre tendenze inferenziali possono offuscare il nostro giudizio, portandoci a attribuire genere, età e background socio-economico a questi sistemi, oscurando il fatto che stiamo interagendo con una macchina e non con un essere umano.
Lindwall e Ivarsson suggeriscono che una possibile soluzione potrebbe consistere nello sviluppo di intelligenze artificiali con voci sintetiche ma eloquenti. Questo approccio garantirebbe la trasparenza, riducendo al contempo la confusione potenziale senza sacrificare la qualità della comunicazione.
Le interazioni umane sono complesse e coinvolgono non solo il potenziale inganno, ma anche la costruzione di relazioni e la creazione di un significato condiviso. L’introduzione di incertezza riguardo all’identità dell’interlocutore, se umano o macchina, può avere un impatto significativo su questi aspetti. Sebbene possa non essere un problema rilevante in alcuni contesti, come la terapia cognitivo-comportamentale, altri tipi di pratiche terapeutiche che richiedono un maggiore grado di connessione umana potrebbero essere influenzati negativamente.
La ricerca condotta da Lindwall e Ivarsson, che ha analizzato dati provenienti da YouTube con diverse tipologie di conversazioni e reazioni del pubblico, ha contribuito a gettare luce su queste complesse dinamiche. Il ruolo della fiducia nelle nostre interazioni, il panorama in evoluzione della comunicazione tra uomo e IA e le implicazioni di un’IA sempre più simile a quella umana sono tutti aspetti complessi di questo campo in rapida evoluzione che meritano ulteriori approfondimenti.
Questa ricerca sottolinea la necessità di una ponderata riflessione mentre continuiamo a sviluppare e integrare l’IA nella nostra vita. Trovare un equilibrio tra funzionalità, realismo e trasparenza sarà fondamentale per garantire che la fiducia, uno degli aspetti fondamentali delle nostre interazioni sociali, non venga compromessa. Mentre affrontiamo la rivoluzione dell’IA, è essenziale ricordare l’importanza di mantenere un tocco umano nella nostra comunicazione.