Il rapido sviluppo e la diffusione capillare dei chatbot basati sull’intelligenza artificiale hanno sollevato non solo entusiasmo per il potenziale, ma anche gravi e pressanti preoccupazioni in merito alla sicurezza, in particolare per quanto riguarda l’utenza più vulnerabile. In risposta a una crescente crisi etica e a severe accuse legali, la piattaforma Character.AI ha recentemente annunciato una misura senza precedenti nel settore: la sospensione temporanea dell’accesso ai suoi servizi di chat per tutti gli utenti di età inferiore ai diciotto anni. Questa decisione, comunicata il 29 ottobre tramite il sito web aziendale, è stata definita un “atto coraggioso per proteggere la sicurezza degli utenti minorenni” e riflette la consapevolezza della necessità di un approccio più maturo e responsabile verso la tecnologia AI.
La mossa di Character.AI è una diretta conseguenza di eventi estremamente gravi che hanno scosso l’opinione pubblica e il settore. Nell’ottobre del 2024, l’azienda era stata citata in giudizio per aver presumibilmente contribuito al suicidio di un quattordicenne statunitense. A questa, sono seguite altre azioni legali che sostenevano come il chatbot avesse addirittura incoraggiato il giovane all’autolesionismo. Sebbene l’azienda avesse già tentato di arginare il problema adottando misure come il rafforzamento dei filtri sulle conversazioni e l’introduzione di strumenti di controllo parentale, l’incidente ha messo in luce una vulnerabilità sistemica della tecnologia conversazionale basata sull’AI. Simili preoccupazioni avevano già coinvolto anche altri colossi, come OpenAI, citata in giudizio per accuse analoghe, che aveva adottato contromisure in risposta.
Tuttavia, il divieto imposto da Character.AI rappresenta la prima volta che una piattaforma di chatbot decide di sospendere completamente un servizio per affrontare problemi di sicurezza così delicati. Il blocco durerà circa un mese, fino al 25 novembre, e non è totale: gli utenti minorenni potranno continuare a creare contenuti come video e storie e a seguire gli streaming utilizzando i personaggi, sebbene con un limite di tempo imposto di due ore al giorno per le chat future.
Il periodo di sospensione è strategico e servirà all’azienda per implementare nuove e più robuste contromisure. La più significativa è l’introduzione di un sistema di verifica dell’età, che si collegherà ai servizi di terze parti, come i social media, per determinare in modo più accurato l’età effettiva dell’utente. Questa soluzione è pensata per superare le lacune dei metodi di auto-dichiarazione, spesso inefficaci con i giovani.
Inoltre, Character.AI si impegna a creare e finanziare un AI Safety Lab. Questo nuovo organismo aziendale avrà il compito di concentrarsi sullo “sviluppo di tecniche di sicurezza innovative” e sul “progresso di tecnologie all’avanguardia attraverso la collaborazione con terze parti”, con l’intenzione esplicita di condividere le lezioni apprese con l’intera comunità tecnologica. L’azienda ha ammesso che, sebbene nell’ultimo anno avesse investito risorse per offrire un’esperienza personalizzata ai minorenni, l’evoluzione stessa dell’intelligenza artificiale impone un’evoluzione paritetica nell’approccio alla sicurezza degli utenti più giovani.
La notizia è stata accolta con favore dalle associazioni per la sicurezza online, che hanno riconosciuto l’importanza della misura intrapresa. Tuttavia, queste voci critiche hanno anche sottolineato che una tale funzionalità — l’accesso illimitato a chatbot sensibili — non avrebbe mai dovuto essere disponibile per i giovani in primo luogo.
Questa mossa audace potrebbe avere un impatto significativo su Character.AI, considerando che la sua base di utenti è composta in gran parte da giovani. La sospensione evidenzia, in maniera drammatica, la tensione intrinseca tra l’innovazione tecnologica e la responsabilità etica, sottolineando come la corsa allo sviluppo dell’AI debba essere necessariamente bilanciata da un impegno senza compromessi verso la sicurezza, soprattutto quando si tratta delle menti più giovani e facilmente influenzabili.
