Pensa di guardare un’immagine — un volto, un luogo, un evento — che non hai mai visto prima, eppure sentirlo familiare, quasi come se lo avessi già vissuto. O di ricordare un fatto che non è mai accaduto, confuso con filtri, video manipolati, suggestioni digitali. In un articolo pubblicato su GeoPop, si affronta proprio questo tema.
La memoria umana non opera come una fotocamera che subisce un’istantanea immutabile, ma piuttosto come un costruttore: ogni volta che richiamiamo un ricordo, lo ricomponiamo, lo plasmiano le emozioni, le associazioni e talvolta… anche le suggestioni esterne. L’effetto Mandela — quel fenomeno per cui molte persone ricordano in modo identico qualcosa che in realtà non è accaduto — è l’esempio più famoso di questa contraddizione: molti ricordavano Nelson Mandela morto in carcere decenni prima della sua effettiva liberazione e morte.
Secondo l’articolo, l’IA “amplifica” il rischio di falsi ricordi proprio perché consente di diffondere immagini e video creati ad arte, con elementi realistici, con volti familiari, con ambientazioni che “sembrano vere”. Se vediamo ripetutamente un video manipolato dove, per esempio, un personaggio famoso è presente a un evento in cui sappiamo che non c’era, il nostro cervello — in quella zona sottile tra ricordare e immaginare — può finire per attribuire quel contenuto al nostro passato reale.
Dietro questa idea c’è un fenomeno ben studiato in psicologia cognitiva: ciò che chiamiamo “monitoraggio delle fonti”. Ogni ricordo, quando lo codifichiamo, porta con sé un “tag” — da dove viene (esperienza vissuta? lettura? visione?), quale contesto, quale origine. Ma quel “tag” può perdersi o indebolirsi nel tempo. Se guardiamo un’immagine convincente e non ricordiamo se fosse reale o elaborata, il nostro cervello può confondere la fonte, incorporare il contenuto come “ricordo autentico”. Il rischio aumenterebbe quando l’IA produce contenuti visivi verosimili.
Negli studi recenti, gli effetti non sono più solo ipotesi teoriche. Un lavoro pubblicato su arXiv intitolato Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews ha mostrato che interagire con chatbot avanzati può indurre la formazione di ricordi falsi. In esperimenti di interviste simulate, i partecipanti esposti a chat generative hanno sviluppato falsi ricordi con frequenza significativamente maggiore rispetto a gruppi di controllo.
Un altro studio, Synthetic Human Memories: AI-Edited Images and Videos Can Implant False Memories and Distort Recollection, ha approfondito l’impatto delle immagini e dei video modificati tramite IA. In quell’esperimento, soggetti che hanno visionato video generati o immagini alterate dall’IA mostravano tassi più alti di ricordi falsi rispetto a chi aveva visto contenuti “originali”.
Questi dati confermano che il tema sollevato da Geopop non è solo interessante, ma urgente: l’IA non “fabbrica ricordi” di per sé, ma il suo potere di generare contenuti credibili può spingere la memoria umana a sconfinare tra reale e immaginato. Quando un utente visualizza spesso una scena creata digitalmente, le sinergie tra il contenuto e la memoria personale possono portare alla costruzione di un ricordo “falso”, ma raccontato con convinzione.
Ciò che è importante tenere a mente è che non ogni contenuto generato conduce automaticamente a un falso ricordo. La vulnerabilità individuale (quanto siamo consapevoli, quanta familiarità abbiamo con l’IA, quanto critica è la nostra mente) gioca un ruolo decisivo. E la continuità dell’esposizione: se un’immagine manipolata compare solo una volta, è meno probabile che diventi “memoria” rispetto a se essa viene riproposta in vari contesti, commentata, associata a testi convincenti.
L’articolo di GeoPop offre una riflessione pertinente: l’intelligenza artificiale non “inganna la memoria” da sola, ma con le sue immagini realistiche e la diffusione di contenuti generati, diventa un “amplificatore dei rischi”. Il confine tra ricordo e suggestione va presidiato con consapevolezza, con educazione alla verifica, con attenzione alle fonti.