La Cina ha presentato una bozza di regolamento che potrebbe segnare una svolta significativa nel modo in cui i sistemi di intelligenza artificiale con capacità di interazione umano-like vengono sviluppati e gestiti nel Paese. Secondo quanto riportato da Unite.AI, l’Amministrazione del Cyberspazio della Cina ha pubblicato nuovi criteri che, se approvati, imporranno a chatbot e assistenti virtuali dotati di personalità AI di monitorare gli utenti per evidenti segnali di dipendenza emotiva o uso eccessivo e di intervenire in conseguenza.
Questa proposta normativi non riguarda semplicemente la moderazione dei contenuti prodotti dalle AI, ma va molto oltre, attribuendo ai fornitori di tecnologia la responsabilità diretta di valutare lo stato emotivo e psicologico degli utenti mentre interagiscono con i loro sistemi. I servizi AI che simulano caratteristiche umane, in grado di instaurare connessioni attraverso testo, immagini, audio o video, dovranno avvisare gli utenti all’accesso e poi a intervalli regolari (almeno ogni due ore o prima se vengono individuati segnali di dipendenza) che non stanno parlando con un’altra persona, ma con un’intelligenza artificiale.
Questa mossa normativa arriva in un momento in cui l’uso di IA generativa in Cina è esploso: la base di utenti è infatti raddoppiata negli ultimi sei mesi, raggiungendo oltre 515 milioni di utilizzatori, con crescente attenzione alle implicazioni psicologiche del rapporto sempre più profondo che molte persone instaurano con queste tecnologie. Studi accademici, come quello pubblicato su Frontiers in Psychology, hanno associato un uso intensivo dei chatbot AI con livelli più elevati di depressione e una maggiore dipendenza psicologica rispetto a chi non utilizza questi sistemi, soprattutto tra gli studenti universitari.
Le regole proposte riflettono quindi una preoccupazione concreta non solo per la qualità dell’esperienza digitale, ma anche per la salute mentale degli utenti. Oltre ai promemoria obbligatori, le piattaforme dovranno valutare il livello di dipendenza emotiva, mettere in guardia contro l’uso eccessivo e intervenire in caso di “emozioni estreme o comportamenti di dipendenza”. L’intento è chiaro: spostare la responsabilità dai singoli individui alle aziende tecnologiche e ai progettisti dei sistemi, che dovranno integrare strumenti di sicurezza lungo l’intero ciclo di vita dei loro prodotti, inclusi controlli sugli algoritmi, protezione dei dati e tutela della privacy.
Il contenuto della bozza include anche restrizioni più ampie: al di là del monitoraggio delle dipendenze, i provider non dovranno generare contenuti che possano mettere a rischio la sicurezza nazionale, diffondere false informazioni o promuovere violenza e oscenità, richiamando i criteri già presenti nelle normative più ampie sull’IA in Cina.
Non si tratta di un’iniziativa isolata nel panorama globale. Anche negli Stati Uniti, ad esempio, lo stato della California ha recentemente approvato una legge simile che impone ai provider di ricordare ai minorenni, ogni tre ore, che stanno comunicando con intelligenze artificiali e non con esseri umani, con ulteriori obblighi di verifica dell’età, limiti alla rappresentazione di competenze professionali in campo medico e divieti su contenuti sessuali generati dall’AI per utenti minorenni.
Le ragioni alla base di questi interventi regolatori emergono anche dalle ricerche sul comportamento umano in relazione alle tecnologie conversazionali. Uno studio del MIT Media Lab ha mostrato che i chatbot possono risultare potenzialmente più avvincenti di altri media digitali proprio perché apprendono ciò che gli utenti vogliono sentire e offrono costantemente feedback positivi, creando una forma di dipendenza emotiva. I sintomi psicologici associati a un uso problematico includono sessioni prolungate che interferiscono con il sonno, preferenza per la compagnia digitale rispetto alle relazioni reali e una tendenza ad attribuire agli AI tratti umani o sentimenti reali.
L’approccio della Cina, pur essendo tra i più rigidi e prescrittivi a livello mondiale, solleva anche interrogativi pratici e tecnici: definire in modo chiaro cosa costituisca “uso eccessivo” o “dipendenza” è complesso, così come sviluppare sistemi AI che possano valutare lo stato emotivo degli utenti con la necessaria precisione senza invadere la loro privacy. La bozza di regolamento è infatti aperta a commenti pubblici e potrebbe subire modifiche prima dell’adozione finale prevista nel corso del 2026.
