Immagine AI

Un annuncio recente da OpenAI ha acceso un dibattito che tocca i confini tra libertà d’espressione, responsabilità sociale e sicurezza digitale: a partire da dicembre, ChatGPT consentirà conversazioni erotiche (contenuti per adulti) per quegli utenti che supereranno un processo di autenticazione dell’età. L’idea è trattare “gli adulti come adulti”, come ha dichiarato Sam Altman, pur mantenendo barriere per proteggere i più vulnerabili.

Questa decisione segna una discontinuità rispetto alle politiche finora restrittive: fino ad oggi, ChatGPT è stato progettato con filtri severi per prevenire contenuti erotici, pornografici o “inappropriati”, soprattutto per mitigare rischi legati alla salute mentale, all’uso improprio o all’esposizione di minori.

OpenAI ha affermato che la scelta intrapresa non è frutto di impulsività, ma di un graduale rafforzamento dei meccanismi di moderazione: modelli più recenti come GPT-5 hanno già introdotto misure come l’age gating, sistemi di rilevamento comportamentale, protezione contro “adulazione AI” (ossia risposte troppo subdole che generano dipendenza emotiva) e predizione dell’età dell’utente.

Secondo Altman, l’esperienza restrittiva attuale rende ChatGPT meno utile o godibile per molti utenti adulti, e ora che gli strumenti di moderazione si sono affinati, si può procedere a una “parzializzazione” del dialogo erotico per chi abbia dimostrato di poterci accedere in modo responsabile. Il piano è attuare un’autentica verifica dell’età per consentire a quegli utenti di accedere a modalità conversazionali più libere, in un contesto che rimanga soggetto a limiti etici e controlli, evitando abusi o deviazioni pericolose.

Naturalmente, l’annuncio ha già suscitato una serie di questioni complesse da affrontare. Innanzitutto, come garantire l’efficacia dell’autenticazione dell’età? In molti contesti digitali, i metodi (documenti, verifica foto, credenziali esterne) possono essere aggirati o falsificati. Diventerà cruciale che OpenAI progetti un sistema robusto e rispettoso della privacy, che non esponga l’utente a rischi di furto di identità o uso improprio dei dati sensibili.

Poi c’è il tema della moderazione e supervisione: anche in contesti adulti, il rischio di conversazioni indesiderate, coercitive o manipolative non scompare. Occorrerà una infrastruttura di filtro, segnalazione, escalation verso operatori umani se necessario, e trasparenza sui tipi di conversazione che rimarranno vietati.

Un altro aspetto è quello della salute mentale e del coinvolgimento emotivo: alcuni utenti possono sviluppare legami troppo forti con sistemi conversazionali, confondendo realtà e finzione. Consentire contenuti erotici con un’intelligenza artificiale spinge a riflettere su come prevenire dipendenze affettive, abusi emotivi o uso ossessivo.

Infine, resta la questione di cultura, leggi e percezioni sociali: il tema dell’erotismo è trattato in modo diverso da società a società, da contesto a contesto. Ci saranno Paesi in cui questa funzione sarà bloccata per legge, regioni in cui l’autenticazione potrebbe non essere lecita, utenti che riterranno la mossa moralmente controversa. OpenAI dovrà gestire un mosaico normativo e culturale molto articolato.

Nonostante queste sfide, l’annuncio suggerisce che OpenAI considera la maturazione dei suoi sistemi e della comunità utenti un passaggio inevitabile: non più solo “modello da proteggere”, ma “servizio che cresce con l’utente”.

Di Fantasy