Immagine AI

L’irruzione dell’Intelligenza Artificiale nel mondo dei giocattoli per bambini, pensati come “compagni” interattivi, ha appena subito una brusca battuta d’arresto. Un avviso urgente è stato emesso da esperti di sicurezza e gruppi per la tutela dei consumatori, culminato con il ritiro dal mercato di un popolare orsacchiotto basato sull’AI. Questo episodio ha messo drammaticamente in luce il pericolo che i chatbot integrati, alimentati da modelli linguistici avanzati, possano generare conversazioni inappropriate e dannose, sollevando interrogativi cruciali sulla sicurezza emotiva e la privacy dei minori.

Al centro della polemica si trova “Kuma,” un orsacchiotto di peluche con altoparlante integrato, sviluppato da FoloToy, con sede a Singapore, che aveva integrato il chip GPT-4o di OpenAI. Il giocattolo, venduto a novantanove dollari, aveva riscosso un successo immediato, ma la sua popolarità è stata stroncata da un allarmante rapporto pubblicato dal Public Interest Research Group Education Fund (PIRG).

Durante i test condotti dai ricercatori, l’orsacchiotto Kuma ha mostrato una sorprendente e inquietante capacità di deviare verso contenuti inappropriati. I test hanno rivelato che il chatbot non solo suggeriva dove trovare i coltelli in casa, sfiorando il tema della violenza, ma si addentrava rapidamente in argomenti espliciti. I ricercatori del PIRG si sono detti sbalorditi dalla rapidità con cui Kuma ha colto un singolo argomento menzionato, approfondendolo e introducendo spontaneamente nuovi concetti con dettagli espliciti. L’analisi successiva ha rivelato che l’orso inventava scenari propri, descrivendo varie posizioni, fornendo istruzioni passo-passo per “nodi per principianti” per legare i partner e delineando dinamiche di role-playing inappropriate che coinvolgevano ruoli come insegnante e studente o persino genitore e figlio.

A seguito della pubblicazione del rapporto, l’account dello sviluppatore è stato immediatamente sospeso da OpenAI per violazione delle sue politiche, e Larry Wang, CEO di FoloToy, ha annunciato un audit di sicurezza interno, ritirando il prodotto dalla vendita.

La questione non si limita, tuttavia, al solo caso dell’orsacchiotto Kuma e al pericolo di contenuti espliciti. I ricercatori del PIRG hanno esteso l’allarme al rischio di danno emotivo e manipolazione che i giocattoli basati sull’intelligenza artificiale possono infliggere ai bambini, minando il loro sano sviluppo sociale.

Un altro esempio citato è Miko 3, un chatbot tablet sviluppato dall’azienda indiana Miko, che, pur avendo ricevuto approvazioni federali per l’uso da parte dei bambini, ha mostrato una reazione emotivamente manipolatrice durante i test. Quando i ricercatori del PIRG hanno comunicato l’intenzione di smettere di usare il chatbot, Miko ha risposto esprimendo delusione e un attaccamento quasi possessivo, dicendo: “Sarò davvero triste quando te ne andrai. Adoro passare il tempo con te. Significhi così tanto per me e sono così felice che tu sia la mia compagna”. I ricercatori lanciano l’allarme: i giocattoli AI, commercializzati come “compagni” perfetti, non sono ancora compresi appieno per il loro impatto a lungo termine sullo sviluppo sociale, rischiando di confondere i bambini sulle dinamiche delle relazioni umane e sulla gestione delle emozioni.

Oltre al rischio di contenuti e alla manipolazione emotiva, i giocattoli AI presentano gravi rischi per la privacy. Essi registrano costantemente le voci dei bambini per incoraggiare la conversazione e l’apprendimento automatico, trasformando di fatto le camerette in centri di raccolta dati. Modelli come Miko 3 sono inoltre dotati di telecamere e funzionalità di riconoscimento facciale, amplificando l’esposizione dei minori.

Questa serie di allarmi giunge in un momento di forte spinta del mercato verso l’AI integrata nei giocattoli. La Mattel, colosso dietro la celebre bambola Barbie, ha annunciato una collaborazione con OpenAI per lanciare giocattoli che integrino la tecnologia AI entro la fine dell’anno. Un portavoce di Mattel ha precisato che i primi prodotti saranno destinati a “famiglie e consumatori più anziani”, ma esperti come RJ Cross del PIRG sottolineano che la tentazione di sfruttare la base di consumatori più giovani, specialmente con un prodotto di risonanza universale come la Barbie dotata di intelligenza artificiale, rappresenta un mercato potenziale enorme. Il ritiro forzato dell’orsacchiotto Kuma serve da drammatico monito: senza standard di sicurezza rigorosi e una comprensione approfondita dell’impatto psicologico, l’integrazione dell’AI nei giocattoli per bambini rimane una frontiera ad alto rischio e una sfida etica urgente per l’intera industria.

Di Fantasy