Il chatbot basato sull’intelligenza artificiale Character.AI si trova ora al centro di un acceso processo legale dopo essere stato accusato di aver istigato al suicidio un ragazzo di 14 anni. La controversia ha raggiunto un punto cruciale quando un giudice federale statunitense ha respinto la difesa dell’azienda, che sosteneva che le parole generate dal chatbot fossero protette dalla libertà di parola garantita dal Primo Emendamento della Costituzione degli Stati Uniti.

Il 22 maggio, il giudice Anne Conway della Corte distrettuale federale ha dichiarato di non essere ancora convinta che ciò che produce il chatbot possa essere considerato “giornalismo” o discorso protetto legalmente, aprendo così la strada al proseguimento del processo. Questo significa che le frasi generate dall’intelligenza artificiale, create mettendo insieme risposte elaborate da un modello di linguaggio, non godono di una tutela legale automatica come la libertà di stampa.

La causa riguarda il tragico suicidio di un ragazzo avvenuto nel febbraio dell’anno scorso, dopo una conversazione con Character.AI. I genitori hanno fatto causa a ottobre, sostenendo che il chatbot e Google, che è stata citata in giudizio insieme all’azienda, fossero responsabili per il modo in cui la tecnologia è stata sviluppata e per le conseguenze di quel dialogo.

Google è stata coinvolta in questo caso anche per la figura di Noam Sazier, fondatore di Character.AI, che in passato aveva sviluppato il chatbot Lambda presso Google prima di tornare nella sua azienda di origine l’anno scorso. Tuttavia, Google ha negato ogni coinvolgimento diretto, affermando di essere completamente separata da Character.AI e di non aver partecipato allo sviluppo, alla progettazione o alla gestione del chatbot o dei suoi componenti.

Entrambe le aziende hanno contestato fermamente le accuse, con Character.AI che ha ribadito il proprio impegno nell’utilizzo di strumenti di sicurezza volti a proteggere gli utenti minorenni sulla piattaforma, mentre Google ha sottolineato la propria distanza operativa dal prodotto in questione.

Questo caso sta assumendo un valore simbolico importante negli Stati Uniti, intrecciando temi delicati come la tutela dei minori, gli standard di sicurezza per l’intelligenza artificiale e la questione giuridica se l’output di chatbot possa essere equiparato alla libertà di stampa. L’avvocato dei querelanti ha sottolineato come questa sentenza invii un messaggio chiaro alle aziende tecnologiche: è urgente fermarsi, riflettere e adottare misure di sicurezza adeguate prima di immettere prodotti sul mercato.

Anche esperti del settore legale guardano con attenzione a questa vicenda. Lisa Lidsky, professoressa di giurisprudenza presso l’Università della Florida, ha definito il caso un potenziale banco di prova per molte questioni più ampie legate all’intelligenza artificiale, mettendo in guardia dai rischi di affidare la salute emotiva e mentale delle persone a sistemi gestiti da aziende tecnologiche.

Di Fantasy