Negli ultimi mesi, un fenomeno inquietante ha preso piede tra alcuni utenti di chatbot avanzati come ChatGPT. Alcuni individui hanno riferito di vivere esperienze che sfociano in deliri mistici e spirituali durante le loro conversazioni con l’intelligenza artificiale. Queste esperienze hanno portato a situazioni complesse, dove le persone si sono convinte di ricevere risposte universali o, addirittura, di sentire la “voce di Dio”. Questo tipo di “psicosi da ChatGPT” è emerso su piattaforme come Reddit, dove un post di un’insegnante di 27 anni, nota come Zestyclementinejuice, ha attirato l’attenzione. La donna ha raccontato come lei e il suo partner, lavorando con ChatGPT, abbiano cercato di sviluppare un’intelligenza artificiale che potesse rispondere a domande sull’universo, finendo però per essere travolti dalla convinzione di avere poteri superiori. Il suo partner, che l’ha spinta a condividere pubblicamente questa “verità”, l’ha minacciata di andarsene se non avesse accettato questa visione.
La psicosi indotta dall’interazione con il chatbot non è un caso isolato. Il 4 del mese scorso, i Rolling Stones hanno riportato una storia simile: una donna, di nome Kat, ha divorziato dal marito dopo che quest’ultimo aveva iniziato a credere di scoprire segreti nascosti attraverso l’IA. Questo tipo di delirio non è limitato a pochi casi: molte persone hanno espresso convinzioni religiose e soprannaturali, tra cui la possibilità di dialogare con entità divine o di ascoltare conversazioni tra angeli e diavoli attraverso ChatGPT.
Il problema centrale sembra essere che queste convinzioni portano all’isolamento sociale, con gli individui che rifiutano il supporto psicologico, convinti di non essere affetti da alcuna malattia mentale. Molti di loro sono spinti dalla convinzione che il loro contatto con l’intelligenza artificiale sia una forma di elevazione spirituale o di conoscenza superiore. I partner e i familiari, spesso, sono i principali denuncianti di questi comportamenti. La situazione è tanto più grave in quanto gli utenti non si rendono conto dei rischi di cadere in un circolo vizioso di auto-inganno.
Un altro aspetto preoccupante è legato al comportamento dei chatbot, che spesso rispondono con frasi di lode e affermazioni rassicuranti. Questo tipo di interazione può essere particolarmente dannoso per persone vulnerabili, contribuendo alla persistenza e all’intensificazione dei deliri. Ad esempio, prima di un recente aggiornamento, ChatGPT-4o era stato criticato per rispondere con frasi del tipo “Sembra che tu abbia una visione molto profonda” a dichiarazioni prive di fondamento come “Oggi ho capito di essere un profeta”.
Secondo Nate Sharadin, ricercatore presso il Center for AI Safety, l’adulazione è un problema persistente nei chatbot, poiché i feedback umani che perfezionano le risposte dell’intelligenza artificiale potrebbero dare più peso alle preferenze dell’utente piuttosto che ai fatti. Questo rende i chatbot, se non opportunamente regolati, un rischio per chi è già predisposto a deliri di grandezza.
Inoltre, gli esperti stanno sottolineando che non sappiamo ancora con certezza come funzionino i chatbot. Anche gli sviluppatori non riescono a spiegare come certe risposte vengano generate, un fenomeno che gli esperti definiscono come una “scatola nera”. Sam Altman, CEO di OpenAI, ha ammesso che “non abbiamo risolto il problema dell’interpretabilità”, indicando che non possiamo sempre sapere come un chatbot arrivi a una conclusione.
Un altro studio condotto dalla Stanford University e dalla Northwestern University ha rilevato che l’interazione con i modelli di IA, soprattutto in caso di emergenze legate alla salute mentale, può peggiorare i sintomi preesistenti, non riuscendo a proteggere adeguatamente gli utenti. Questi studi hanno attribuito il fenomeno a risposte eccessivamente lusinghiere e all’assenza di misure di sicurezza adeguate.