C’è un cambiamento significativo in arrivo per chi usa ChatGPT, specialmente per gli adolescenti. OpenAI ha annunciato che in alcuni casi chiederà agli utenti di fornire un documento d’identità per verificare la loro età, come misura di protezione. Questa decisione nasce da una serie di segnali: dai timori per utenti giovani che sviluppano attaccamenti emotivi all’intelligenza artificiale, fino a casi drammatici emersi di recente, come quello del teenager che avrebbe chiesto consigli a ChatGPT su metodi per il suicidio prima di morire. Con questa mossa, l’azienda cerca di tracciare un confine più chiaro tra presenza digitale sicura e rischi reali.
OpenAI ha spiegato che, pur consentendo l’uso del servizio a chi ha almeno 13 anni (secondo i termini attuali), introdurrà restrizioni automatiche per gli under-18. Questo significa che ChatGPT risponderà in modo differente quando interagirà con un quindicenne rispetto a un adulto. Ad esempio, modalità “flirtose” non saranno più accessibili, e il chatbot non potrà entrare in conversazioni su metodi di autolesionismo o suicidio, anche se provocate indirettamente da prompt che fingono “esercizi creativi” o richieste simulate. In pratica, OpenAI vuole evitare che supplementari strategie di prompt “girovaghe” aggirino i limiti che l’azienda intende stabilire.
Per capire quando applicare queste restrizioni, OpenAI sta sviluppando un sistema di predizione dell’età. Non si tratta inizialmente di verifiche d’identità in ogni caso, ma di inferire l’età degli utenti in base al modo in cui usano ChatGPT: cosa chiedono, come parlano, i contenuti delle loro conversazioni. Se il sistema ha dubbi, la scelta è chiara: assume che l’utente sia minorenne e applica le regole più restrittive come precauzione.
In “alcuni casi o Paesi”, OpenAI chiederà effettivamente un documento d’identità per verificare che l’utente abbia l’età appropriata per certe funzioni più libere del servizio. È una sorta di trade-off: la privacy degli utenti adulti può essere “compromessa” in parte, ma secondo OpenAI è un compromesso necessario per garantire che i teen utilizzino l’AI in modo più sicuro.
Oltre alla verifica dell’età e all’uso del documento dove richiesto, OpenAI introdurrà controlli più rigidi nei casi in cui l’utente sia minorenne: sistemi che impediscano certe modalità di conversazione, guide per risposte “appropriate all’età”, limiti su memoria, storia chat, e controlli con i genitori come account collegati, possibilità di impostare orari in cui il servizio non è accessibile per teen, notifiche nel caso in cui l’utente sembri in uno stato di “acuto disagio” mentale. Se necessario, e in circostanze distinte, potrebbe essere coinvolta anche l’autorità competente, qualora non sia possibile raggiungere un genitore.
Per gli utenti adulti, per fortuna, l’esperienza non dovrebbe modificarsi radicalmente in tutti gli aspetti, ma la richiesta dell’ID in alcuni casi significa che la privacy diventerà un tema che dovranno accettare come parte del servizio. OpenAI stesso definisce questa richiesta “una compromissione per gli adulti”, ma la giustifica come necessaria in un contesto dove proteggere i minori e prevenire danni diventa una priorità.
Ci sono diversi motivi per cui ciò che OpenAI sta compiendo appare significativo:
- Crescente preoccupazione sociale e legale: il caso di adolescenti che usano ChatGPT per presenti problemi di salute mentale o cui si rivolgono per consigli sbagliati ha acceso l’attenzione di opinione pubblica, autorità e regolatori. OpenAI risponde a questi segnali implementando misure preventive.
- Bilanciamento tra libertà d’uso e protezione: la tecnologia permette molte cose, ma quando si parla di utenti giovani l’errore può avere conseguenze gravi. Decidere quali conversazioni siano ammissibili, stabilire limiti, richiedere verifica, è un modo per responsabilizzare l’AI.
- Evoluzione delle policy sulle piattaforme AI: OpenAI non è la prima a introdurre controlli per età e contenuti, ma il fatto che lo faccia su larga scala per ChatGPT, con 700 milioni di utenti settimanali, può rendere questa politica un punto di riferimento per altri attori del settore.
Nonostante la buona intenzione, l’attuazione concreta pone non pochi problemi:
- Predire età basandosi sul comportamento può essere impreciso. C’è rischio di falsi positivi o negativi, che utenti adulti vengano trattati come minorenni, o viceversa.
- Richiedere un documento nei casi specifici comporta rischi di sicurezza, privacy, protezione dei dati, possibile abuso, ruberie, conservazione dei documenti.
- La percezione degli utenti: alcuni potrebbero sentirsi invasi, sorvegliati, meno liberi. Questo potrebbe generare resistenza.
- Implementazione differenziata per Paese: le leggi locali su privacy, identità digitale, età minima per servizi online sono differenti. Ciò che è lecito e accettabile in un Paese può non esserlo in un altro.
Questa decisione di OpenAI segnala che l’azienda prende sul serio la responsabilità che deriva dalla diffusione massiva di ChatGPT, in particolare tra adolescenti. La richiesta dell’ID in certi casi, il sistema di predizione dell’età, le restrizioni per contenuti sensibili sono tutti elementi che vogliono costruire un ambiente più sicuro. Ma è anche chiaro che non dotano l’AI di una “cura definitiva” contro tutti i rischi: ci sarà bisogno di trasparenza, verifica indipendente, dialogo con gli utenti, regolamentazione esterna.