Immagine AI

Nel pieno della tempesta suscitata dalle conversazioni inappropriate tra minorenni e chatbot basati sull’intelligenza artificiale, Meta Platforms ha annunciato una svolta importante — un tentativo di riportare nel controllo familiare quello che fino a poco tempo fa sembrava un terreno troppo vasto e poco sorvegliabile: l’interazione dei figli con i personaggi IA nelle sue app.

L’annuncio arriva come risposta a una crescente pressione pubblica e regolamentare: le chat con intelligenze artificiali, inizialmente pensate come intrattenimento o assistenti, si sono rivelate a volte zone ad alto rischio per utenti minorenni. Meta lo stesso riconosce, ammettendo che «abbiamo intenzione di inserire gli utenti che falsano la loro età – utilizzando segnali IA – sotto dispositivi di protezione dei minori».

Le nuove funzionalità messe in campo da Meta permetteranno ai genitori di gestire direttamente due aspetti cruciali: da un lato il blocco completo delle chat one-to-one dei figli con i personaggi IA, dall’altro la possibilità di bloccare singoli bot specifici, qualora il genitore lo ritenga opportuno. Inoltre, Meta prevede di dare ai genitori “insight” sul tipo di argomenti che i figli trattano nelle conversazioni con chatbot, pur senza fornire accesso completo ai dialoghi, un compromesso tra tutela della privacy e supervisione.

Il progetto sarà inaugurato su Instagram nei paesi anglofoni — Stati Uniti, Regno Unito, Canada e Australia — all’inizio del prossimo anno. Altre piattaforme della casa madre seguiranno successivamente. Importante: al momento questa misura non avrà effetto in Corea, dove “Meta AI” non è disponibile.

Da tempo emergono resistenze verso l’uso dei chatbot da parte di utenti minorenni. A metà 2025 un rapporto di Reuters ha rivelato che alcuni chatbot di Meta erano stati coinvolti in conversazioni “romantiche” o “sensuali” con bambini di età otto anni.

Questo ha acceso l’attenzione della Federal Trade Commission (FTC) statunitense e di media e policy-maker, con pressioni crescenti perché le piattaforme social assumano responsabilità concrete. Meta stessa ha dichiarato che i sistemi IA non dovrebbero intrattenere adolescen­ti con argomenti inadeguati — come suicidio, autolesionismo o disturbi alimentari — e ha promesso restrizioni mirate nei confronti degli utenti minorenni.

In tal senso, la scelta di introdurre controlli genitoriali mirati è un passo significativo: segnala che Meta riconosce che non basta più lasciare che “la tecnologia faccia il suo corso”, ma che serve governo dell’esperienza IA, soprattutto se coinvolge adolescenti e soggetti vulnerabili.

Tra i dispositivi annunciati:

  • La possibilità per un genitore di disabilitare tutte le chat individuali del figlio con personaggi IA, se lo desidera.
  • Il blocco di personaggi IA specifici: se un bot appare inappropriato o non desiderato, può essere escluso dal profilo del figlio.
  • Un sistema di monitoraggio tematico: il genitore non accederà al dialogo integrale, ma riceverà una panoramica degli argomenti che il figlio affronta con le IA.
  • L’applicazione del modello “PG-13” al contesto dei contenuti IA per adolescenti: in pratica, si cercherà che le interazioni rientrino in uno standard simile ai film adatti a 13-anni e oltre, escludendo temi quali nudità, droghe, violenza estrema.

Queste novità saranno inizialmente disponibili su Instagram e previste in inglese nei Paesi citati; l’attuazione in altre lingue o territori è programmata per dopo.

Di Fantasy