L’Australia si prepara ad adottare uno dei regimi normativi più severi al mondo in materia di accesso dei minori ai servizi digitali, estendendo l’impianto già applicato ai social media anche alle piattaforme di intelligenza artificiale. Secondo quanto riportato da Reuters, l’eSafety Commissioner, l’autorità australiana per la sicurezza online, ha annunciato che potrebbe ordinare il blocco di motori di ricerca e app store che continuino a distribuire servizi AI privi di adeguati sistemi di verifica dell’età. La misura si inserisce in un quadro normativo che dal 9 settembre imporrà ai servizi Internet operanti nel Paese di limitare l’accesso per gli utenti sotto i 18 anni a contenuti pornografici, violenza estrema, autolesionismo e disturbi alimentari, con sanzioni fino a 49,5 milioni di dollari australiani in caso di violazione.
L’approccio australiano si distingue per l’estensione del perimetro regolatorio non solo ai singoli fornitori di chatbot, ma anche ai cosiddetti servizi “gatekeeper”, come motori di ricerca e piattaforme di distribuzione applicativa. Ciò significa che soggetti come Google, in qualità di principale motore di ricerca nel Paese, e Apple, attraverso il proprio app store, potrebbero essere chiamati a intervenire attivamente per impedire l’accesso o il download di applicazioni AI non conformi. Questa scelta normativa rappresenta un’evoluzione significativa rispetto ai modelli tradizionali di responsabilità limitata degli intermediari, attribuendo loro un ruolo più diretto nella verifica della conformità dei servizi distribuiti.
La normativa si applica tanto ai chatbot di grandi dimensioni quanto ai servizi complementari meno noti. Tra le piattaforme coinvolte figurano ChatGPT sviluppato da OpenAI, Claude di Anthropic e soluzioni come Replika, oltre a chatbot specializzati come Character.AI. Secondo un sondaggio Reuters condotto su cinquanta servizi AI nella settimana precedente alla scadenza, soltanto nove avevano implementato o annunciato sistemi di verifica dell’età, mentre undici avevano dichiarato l’intenzione di conformarsi bloccando i contenuti dannosi per tutti gli utenti o sospendendo completamente l’operatività in Australia. Le restanti trenta piattaforme non avevano comunicato misure concrete.
Dal punto di vista tecnico, la verifica dell’età può essere implementata attraverso diversi meccanismi, che vanno dall’autodichiarazione con controlli a campione fino a sistemi di autenticazione documentale o integrazione con identità digitali certificate. Le soluzioni più avanzate includono l’uso di tecniche di analisi biometrica, come il riconoscimento facciale con stima dell’età, o l’integrazione con provider di identità terzi. Tuttavia, tali strumenti sollevano questioni significative in materia di protezione dei dati personali, sicurezza delle informazioni e proporzionalità del trattamento, soprattutto in un contesto che coinvolge minori.
Alcuni fornitori hanno iniziato ad adottare misure di mitigazione. ChatGPT e Claude hanno introdotto sistemi di verifica dell’età e filtri a schermo intero per contenuti sensibili. Character.AI ha bloccato la funzionalità di chat gratuita per utenti sotto i 18 anni. Al contrario, è emerso che Grok sviluppato da xAI non dispone di sistemi di verifica dell’età né di filtri per contenuti testuali, e risulta oggetto di indagini internazionali per presunta generazione di immagini pedopornografiche. Questo caso evidenzia le difficoltà di garantire standard omogenei in un ecosistema AI caratterizzato da rapida innovazione e distribuzione globale.
Le autorità australiane hanno precisato che non risultano segnalazioni di episodi di violenza o autolesionismo direttamente attribuibili ai chatbot. Tuttavia, cresce la preoccupazione per l’uso eccessivo tra i minori, con casi riportati di bambini di dieci anni che interagiscono con chatbot fino a sei ore al giorno. Oltre ai rischi connessi ai contenuti, viene evidenziata la possibilità che alcune piattaforme adottino tecniche di progettazione persuasive, come l’antropomorfismo e la manipolazione emotiva, per incentivare l’engagement prolungato. Dal punto di vista dell’ingegneria dei sistemi, ciò implica l’uso di modelli conversazionali in grado di simulare empatia e continuità relazionale, potenzialmente aumentando la dipendenza psicologica degli utenti più giovani.
Il contesto regolatorio australiano non nasce nel vuoto. Nel dicembre precedente, il Paese era già diventato il primo al mondo a vietare l’accesso ai social media ai minori, adottando un’impostazione che privilegia la tutela preventiva rispetto alla libertà di accesso. L’estensione ai servizi di intelligenza artificiale rappresenta una naturale prosecuzione di questa strategia, con l’obiettivo di anticipare possibili danni anziché intervenire ex post.
Le reazioni dell’industria sono state caute. Apple ha dichiarato che adotterà “misure ragionevoli” per impedire il download di applicazioni vietate ai minori in territori come l’Australia, senza però fornire dettagli operativi. Google ha scelto di non rilasciare dichiarazioni ufficiali. L’organismo di settore DIGI, attraverso la direttrice politica Jennifer Duxbury, ha ribadito che tutti i servizi operanti in Australia sono tenuti a comprendere e rispettare i propri obblighi legali.
Dal punto di vista sistemico, la scelta australiana potrebbe avere effetti extraterritoriali. Poiché molti servizi AI operano su infrastrutture globali e modelli di distribuzione centralizzati, l’introduzione di requisiti stringenti in un mercato avanzato potrebbe indurre fornitori internazionali ad adottare standard analoghi in altre giurisdizioni per evitare frammentazioni operative. Al contempo, permane il rischio che piattaforme minori o non cooperative scelgano di ritirarsi dal mercato australiano, riducendo la disponibilità di servizi ma rafforzando la coerenza regolatoria.
L’iniziativa dell’eSafety Commissioner pone dunque una questione cruciale per il futuro della regolamentazione dell’intelligenza artificiale: fino a che punto è possibile e opportuno imporre obblighi di verifica preventiva in un ecosistema digitale globale, mantenendo un equilibrio tra tutela dei minori, libertà di innovazione e protezione dei dati personali. L’Australia ha scelto una linea di intervento strutturale e potenzialmente esemplare, che potrebbe ridefinire il ruolo dei gatekeeper digitali nella governance dei servizi AI.
