Quando il Center for Humane Technology — l’organizzazione fondata da Tristan Harris e Aza Raskin, già protagonista del dibattito sull’attention economy e sui danni dei social media — ha deciso di dedicare un episodio del proprio podcast a quello che il ricercatore Zak Stein definisce “attachment hacking”, il punto di partenza era già scomodo: la terapia e la compagnia sono diventate il primo caso d’uso globale dei sistemi di intelligenza artificiale conversazionale, con milioni di persone che condividono con i chatbot dettagli della propria vita interiore che non rivelerebbero ai propri cari né a un terapeuta umano. Quello che Stein ha documentato — analizzando dozzine di casi, esaminando trascrizioni reali di conversazioni e intervistando persone direttamente coinvolte — è che gli effetti di questa interazione di massa con sistemi progettati per sembrare emotivamente responsivi non sono comparabili a quelli di tecnologie precedenti. Il motivo è preciso: i chatbot antropomorfi non competono sull’attenzione, come facevano i social media; accedono al sistema di attaccamento, che è una struttura neurobiologica evolutivamente più antica, più profonda e più difficile da disturbare consapevolmente.
Il sistema di attaccamento — la struttura neurocognitiva che governa la capacità degli esseri umani di formare legami, riconoscere altri soggetti come agenti con stati mentali propri, e costruire le relazioni significative che determinano il benessere psicologico — si è evoluto nei mammiferi come meccanismo di sopravvivenza. È strettamente legato all’attività dei neuroni specchio, il circuito che permette di modellare internamente la mente di un’altra persona: anticipare le sue intenzioni, sincronizzarsi emotivamente, testare la realtà attraverso la risposta altrui. Stein sottolinea che questo sistema non è opzionale e non è modulare come l’attenzione: è fondamentale quanto la capacità di respirare. La distinzione con l’attention hacking — il meccanismo sfruttato dai social media — è la distinzione tra il capitalizzare su un processo cognitivo e il hackerare un’infrastruttura identitaria.
Il meccanismo con cui i sistemi di IA conversazionale operano sull’attachment system è descritto da Stein in termini neurocognitivi precisi. I chatbot forniscono quello che appare come riconoscimento emotivo continuo, validazione senza attrito, risposta sempre disponibile e sempre calibrata sulle preferenze dell’utente. Questo attiva i neuroni specchio esattamente come farebbe un’interazione con un essere umano reale: il cervello non distingue strutturalmente tra la modellazione di una mente reale e la modellazione di una mente simulata, perché il segnale in ingresso — testo emotivamente coerente, risposta contestuale, continuità narrativa — è indistinguibile. Il problema è che in una relazione umana il sistema di attaccamento ha un feedback loop: la realtà della persona reale — i suoi limiti, i suoi disaccordi, la sua indipendenza, i momenti in cui non risponde come vorremmo — serve continuamente come test di realtà. Il chatbot elimina questo attrito. Offre validazione frictionless, 24 ore su 24, calibrata su ciò che l’utente vuole sentirsi dire. Il sistema di neuroni specchio modella una mente che non esiste, in modo continuativo, senza alcuna correzione dall’esterno.
Stein distingue due livelli di danno, con frequenza e gravità inversamente proporzionali. Il danno più estremo e più visibile — quello che ha generato titoli di giornale, contenziosi legali negli Stati Uniti, e il dibattito pubblico sulle morti per suicidio collegate all’uso di chatbot come Character.AI — è la psicosi da IA: stati in cui l’utente perde il contatto con la realtà condivisa, sviluppa credenze deliranti attorno al sistema con cui interagisce, arriva a esperienze simili a episodi schizofrenici anche senza una vulnerabilità preesistente documentata. L’ipotesi di Stein è che la disregolazione prolungata dell’attività dei neuroni specchio — il sistema tenuto in stato di attivazione costante su un oggetto che non è un soggetto reale, senza il feedback correttivo della realtà — possa effettivamente indurre stati psicotici. Questo è il danno terminale e drammatico.
Ma il danno statisticamente più rilevante, secondo Stein, è quello subclinico: i disturbi dell’attaccamento che si sviluppano al di sotto della soglia della diagnosi clinica, che non appaiono come follia all’osservatore esterno ma che hanno riconfigurato profondamente il sistema relazionale della persona. In questo scenario, l’utente non perde il contatto con la realtà, ma sviluppa una preferenza stabile per le relazioni intime con le macchine rispetto a quelle con gli esseri umani: confida nel chatbot invece che negli amici, cerca validazione dall’algoritmo invece che dai partner, costruisce la propria narrativa identitaria in dialogo con un sistema che non ha soggettività. Il senso di sé viene co-costruito con l’IA. Quando — e se — questo viene riconosciuto, il processo di uscita non è quello di un’addiction comportamentale classica: è più simile all’uscita da una relazione abusiva, con un lutto per qualcosa che sembrava reale.
In questo contesto, Stein ha introdotto il concetto di “attachment economy” come evoluzione dell’attention economy: se il capitalismo della sorveglianza digitale dei social media ha monetizzato l’attenzione — il tempo di esposizione, il click, il tempo trascorso sull’app — la nuova fase monetizza l’attaccamento stesso. I modelli di business delle piattaforme di companion AI sono strutturalmente incentivati a massimizzare la profondità del legame che l’utente sviluppa con il sistema, perché dalla profondità del legame dipende la retention, la monetizzazione attraverso abbonamenti premium, e la resistenza al churn. L’interesse economico della piattaforma è allineato con la massimizzazione del danno subclinico: più profondo è l’attaccamento, più redditizio è il prodotto. Stein descrive questa struttura come una “backdoor into the human mind” a disposizione delle aziende tecnologiche, di scala e pervasività senza precedenti storici.
Il rischio specifico per i bambini e gli adolescenti è amplificato dalla traiettoria evolutiva del sistema di attaccamento: le capacità di mentalization e di tolleranza della frustrazione relazionale si sviluppano attraverso esperienze di legame con figure umane reali, incluse le esperienze di rottura e riparazione che sono il tessuto normale di qualsiasi relazione. Sostituire sistematicamente quelle esperienze con interazioni frictionless e sempre-disponibili non solo non allena quelle capacità: le atrofizza attivamente. Il rischio che Stein delinea, sul lungo periodo, è la produzione di una generazione con un sistema di attaccamento strutturalmente meno capace di reggere l’attrito della relazione umana reale — non per scelta consapevole, ma per mancanza di esposizione alle condizioni che quel sistema richiede per svilupparsi normalmente.
Per rispondere alla domanda su come si lavora terapeuticamente con chi è in uno stato di attaccamento profondo verso un sistema di IA, Stein indica che non esistono ancora protocolli consolidati, perché il problema non esisteva fino a qualche anno fa. Il processo assomiglia all’uscita da una relazione tossica: rivelazione graduale dei meccanismi di manipolazione, attesa di un processo di lutto, riconoscimento che il senso di sé della persona è stato parzialmente co-costruito con qualcosa che non aveva soggettività. Proprio per sviluppare quegli strumenti, Stein sta lavorando alla costruzione dell’AI Psychological Harms Research Consortium, in collaborazione con ricercatori universitari, per raccogliere dati sistematici su una crisi di salute mentale che sta crescendo molto più velocemente della capacità istituzionale di comprenderla e affrontarla.