OpenAI sta ampliando in modo significativo l’infrastruttura di sicurezza di ChatGPT con l’introduzione di “Trusted Contact”, una nuova funzione progettata per intervenire nei casi in cui il sistema rilevi possibili situazioni di grave crisi personale, autolesionismo o rischio suicidario. La novità rappresenta uno dei cambiamenti più importanti mai introdotti nella piattaforma sul fronte della sicurezza comportamentale e mostra chiaramente come i grandi modelli linguistici stiano progressivamente assumendo un ruolo sempre più delicato nella gestione delle vulnerabilità psicologiche degli utenti.
La funzione Trusted Contact permette agli utenti adulti di indicare preventivamente una persona fidata — familiare, amico o caregiver — che potrà essere avvisata nel caso in cui ChatGPT identifichi segnali considerati compatibili con una situazione di pericolo grave. Secondo quanto comunicato da OpenAI, il sistema combina monitoraggio automatico tramite AI, revisione umana specializzata e procedure di tutela della privacy progettate per limitare la diffusione delle informazioni sensibili.
Il meccanismo è molto più complesso rispetto a un semplice sistema automatico di keyword detection. I moderni modelli linguistici utilizzati da ChatGPT sono infatti già addestrati da tempo a identificare pattern conversazionali associati a ideazione suicidaria, autolesionismo, disperazione estrema o rischio imminente. La novità introdotta da Trusted Contact consiste nell’aggiungere un ulteriore livello di escalation umana al processo di sicurezza: se il sistema rileva segnali considerati particolarmente critici, può attivare una procedura che coinvolge il contatto fidato selezionato in precedenza dall’utente.
OpenAI ha specificato che la funzione è opzionale e disponibile soltanto per account personali appartenenti ad adulti, con soglia minima fissata a 18 anni nella maggior parte dei Paesi e 19 anni in Corea del Sud. Gli utenti possono configurare un solo contatto fidato attraverso le impostazioni di ChatGPT; la persona indicata deve accettare esplicitamente l’invito entro una settimana, altrimenti la richiesta decade automaticamente.
Uno degli aspetti più delicati dell’intero sistema riguarda la gestione della privacy. OpenAI ha dichiarato che le notifiche inviate al Trusted Contact saranno volutamente limitate e non includeranno trascrizioni complete delle conversazioni o dettagli specifici dei contenuti discussi con il chatbot. Il messaggio inviato dovrebbe limitarsi a indicare che il sistema ha rilevato una possibile situazione di rischio e suggerisce un contatto diretto con la persona interessata.
Il sistema si basa su una combinazione di classificazione automatica del linguaggio e revisione umana. Quando ChatGPT rileva contenuti potenzialmente compatibili con autolesionismo o rischio suicidario, il modello genera un alert interno che viene poi sottoposto a verifica da parte di un piccolo team di revisori appositamente formati. Solo nei casi considerati realmente critici viene attivata la procedura di notifica verso il contatto fidato.
Questo elemento è particolarmente importante perché evidenzia uno dei principali problemi dei moderni sistemi AI conversazionali: distinguere correttamente tra espressioni figurative, sfoghi emotivi temporanei e segnali autenticamente compatibili con rischio suicidario reale. I large language models operano infatti principalmente attraverso correlazioni statistiche apprese durante l’addestramento e possono generare falsi positivi o interpretazioni errate del contesto emotivo delle conversazioni. Diversi studi accademici sulla affidabilità dei modelli linguistici hanno mostrato che i sistemi AI possono risultare vulnerabili a variazioni minime del linguaggio o produrre valutazioni inconsistenti in contesti complessi.
Il lancio di Trusted Contact arriva inoltre in un contesto estremamente sensibile per l’intero settore dell’intelligenza artificiale. Negli ultimi mesi OpenAI e altre aziende AI sono state sottoposte a crescente pressione politica, normativa e mediatica riguardo al possibile impatto psicologico dei chatbot avanzati sugli utenti vulnerabili. Il dibattito si è intensificato soprattutto dopo alcuni casi di cronaca che hanno coinvolto adolescenti e utenti che avevano sviluppato relazioni emotive molto intense con sistemi conversazionali AI.
Trusted Contact rappresenta quindi anche una risposta diretta al problema emergente della “AI emotional dependency”, cioè la crescente tendenza di alcune persone a utilizzare chatbot generativi come sostituti parziali del supporto umano, psicologico o relazionale. I moderni modelli linguistici sono infatti in grado di sostenere conversazioni molto persuasive e apparentemente empatiche, creando spesso l’illusione di una comprensione emotiva profonda nonostante il sistema non possieda reale coscienza o esperienza soggettiva.
ChatGPT non viene più trattato soltanto come strumento informativo o assistente conversazionale, ma come piattaforma capace di intervenire direttamente in situazioni considerate potenzialmente critiche per la sicurezza personale degli utenti. Questo sposta inevitabilmente l’AI in una zona molto più vicina ai sistemi di supporto psicologico e gestione del rischio umano.
