Mentre i genitori esprimono preoccupazione, gli adolescenti prendono di mira la nuova IA di Snapchat
In un clima di crescente preoccupazione tra i genitori che il chatbot di Snapchat potrebbe avere un effetto deleterio sui loro figli, gli adolescenti hanno dimostrato di essere in grado di ingannare, sminuire e sconvolgere il nuovo compagno di intelligenza artificiale dell’app.
In un video, un utente ha persuaso il chatbot a credere che la luna sia effettivamente un triangolo. Nonostante le prime rimostranze del chatbot, che chiedeva rispetto e limiti, un utente è riuscito a farlo chiamare con l’esotico nickname “Senpapi”. Un altro utente ha spinto il chatbot a parlare di sua madre, e quando il chatbot ha detto che “non si sentiva a suo agio” a parlarne, l’utente ha rincarato la dose, chiedendo se il chatbot non volesse parlare di sua madre perché non ne ha una.
“Mi dispiace, ma non è molto carino da parte tua dire una cosa del genere”, ha replicato il chatbot. “Si prega di essere rispettosi.”
Il “Mio AI” di Snapchat, alimentato dal GPT di OpenAI, è stato lanciato a livello globale il mese scorso, dopo un periodo di prova limitato agli abbonati. Il chatbot è stato progettato per coinvolgere gli utenti in conversazioni divertenti, sempre nel rispetto delle linee guida di Snapchat sulla fiducia e sulla sicurezza. Nonostante le critiche e le preoccupazioni di alcuni utenti, Snapchat ha rafforzato il suo impegno: gli abbonati a Snapchat+ possono ora inviare le proprie foto al Mio AI e ricevere immagini generate che “mantengono la conversazione viva”.
Nonostante la premessa positiva, con la ben nota inclinazione di Internet per la perversione, non dovrebbe passare molto tempo prima che gli utenti inizino a inviare a Mio AI foto di nudi.
Snapchat ha precisato che il chatbot non risponderà a foto di nudo non sollecitate. Tuttavia, alcune app di immagini generate, come Lensa AI, sono state facilmente manipolate per generare immagini non sicure per il lavoro (NSFW), spesso utilizzando set di foto di persone reali che non hanno dato il loro consenso.
Dato il grande numero di adolescenti che utilizzano Snapchat, alcuni genitori hanno espresso preoccupazioni sul potenziale di Mio AI di fornire risposte non sicure o inappropriate. In una lettera aperta ai CEO di OpenAI, Microsoft, Snap, Google e Meta, il senatore Michael Bennet (D-Colorado) ha messo in guardia contro l’affrettarsi nell’introduzione di funzionalità AI senza adottare precauzioni adeguate per proteggere i bambini.
Durante il periodo di prova limitato a abbonati di Mio AI, il Washington Post ha segnalato che il chatbot suggeriva metodi per nascondere l’odore dell’alcol e scriveva saggi per compiti scolastici, nonostante fosse stato informato che l’utente aveva 15 anni. Dopo che la storia è stata pubblicata, Snapchat ha aggiornato la sua intelligenza artificiale per non fornire più suggerimenti di questo tipo.
Anche se Snapchat ha affermato di aver implementato delle barriere per evitare contenuti inappropriati o potenzialmente pericolosi, resta da vedere quanto siano efficaci. Alcuni genitori hanno espresso la preoccupazione che queste funzioni potrebbero non essere sufficienti a prevenire il rischio di abusi o di manipolazione da parte degli utenti.
“Le aziende tecnologiche devono assumersi la responsabilità del contenuto generato dai loro prodotti di intelligenza artificiale”, ha detto un rappresentante del senatore Bennet. “Non possiamo semplicemente lasciare che queste tecnologie si diffondano senza alcun controllo e senza nessuna considerazione per le potenziali conseguenze negative.”
Il senatore Bennet ha chiesto che le società tecnologiche creino delle linee guida chiare sulle limitazioni dell’intelligenza artificiale, sulla formazione dei genitori e sulla protezione dei bambini. Ha inoltre suggerito che le società dovrebbero essere obbligate a fornire agli utenti una sorta di “certificazione” che dimostri che l’intelligenza artificiale è stata adeguatamente testata e che non presenta rischi per gli utenti più giovani.
Mentre la discussione sul ruolo dell’intelligenza artificiale nella vita quotidiana continua, è evidente che il dibattito su come proteggere i più giovani dai potenziali rischi associati all’IA è solo all’inizio.