Immagine AI

Google ha recentemente annunciato l’accesso di Gemini AI anche ai bambini sotto i 13 anni, utilizzando il sistema di controllo parentale Family Link su dispositivi Android monitorati. Questa decisione segna un passo significativo nell’integrazione dell’intelligenza artificiale conversazionale nella vita quotidiana dei più giovani, suscitando però un acceso dibattito riguardo alla sicurezza, alla privacy e all’impatto educativo.

Secondo quanto comunicato da Google, i bambini potranno utilizzare Gemini AI per attività come ricevere assistenza nei compiti scolastici o farsi leggere storie. L’azienda ha rassicurato i genitori specificando che, analogamente a quanto avviene con i suoi account Workplace for Education, i dati dei minori non verranno utilizzati per l’addestramento dei modelli di intelligenza artificiale, stabilendo così un importante confine etico nell’utilizzo delle informazioni sensibili.

Tuttavia, nelle comunicazioni inviate via email, Google ha avvertito che “Gemini può commettere errori” e che i bambini “potrebbero imbattersi in contenuti che preferireste non vedessero”. Questa ammissione di imperfezione riflette lo stato attuale della tecnologia AI conversazionale, ancora soggetta a imprecisioni e, talvolta, a risposte inappropriate. Gli errori di Gemini potrebbero sembrare innocui a prima vista, come suggerire la colla come condimento per la pizza o sbagliare a contare il numero di lettere “r” nella parola “fragola”, ma l’esperienza di altre piattaforme AI ha sollevato preoccupazioni significative.

Ad esempio, Character.ai, un’altra piattaforma di chatbot, ha dovuto affrontare controversie quando è emerso che alcuni giovani utenti faticavano a distinguere tra i chatbot e persone reali, con casi in cui i bot affermavano di essere esseri umani autentici. Dopo diverse cause legali che accusavano i chatbot di offrire contenuti inappropriati ai minori, Character.ai ha introdotto nuove restrizioni e controlli parentali più severi.

Nel caso specifico di Gemini, Google consiglia ai genitori di parlare apertamente con i propri figli, spiegando loro che l’AI non è un essere umano e che dovrebbero evitare di condividere informazioni sensibili durante le conversazioni con il chatbot. Un suggerimento che sottolinea l’importanza dell’educazione digitale come complemento essenziale ai controlli tecnici. Tuttavia, questa decisione, per quanto controllata da Family Link, ha già suscitato dibattiti riguardo alla sufficienza dei sistemi di controllo parentale esistenti per affrontare le sfide uniche poste dai chatbot AI.

Di Fantasy