OpenAI è finita al centro di una nuova controversia in Europa legata alla tutela della privacy. Il problema riguarda ChatGPT, il noto chatbot basato su intelligenza artificiale, accusato di aver generato false informazioni gravemente diffamatorie su una persona reale, violando il Regolamento generale sulla protezione dei dati (GDPR) dell’Unione Europea.
La vicenda è stata resa pubblica dalla BBC il 20 marzo, riportando la denuncia presentata dal gruppo europeo per la privacy NOYB (“None Of Your Business”) all’Autorità norvegese per la protezione dei dati. La segnalazione è stata fatta in nome di Arve Hilmar Holmen, un cittadino norvegese, vittima di un caso inquietante di “allucinazione” da parte del chatbot.
Secondo quanto riferito, ChatGPT ha affermato erroneamente che Holmen avrebbe ucciso due bambini e tentato di ucciderne un terzo. Si tratta di informazioni completamente inventate, che non solo ledono gravemente la reputazione della persona coinvolta, ma che possono anche avere conseguenze legali per OpenAI.
Secondo NOYB, il problema non è limitato a un semplice errore: si tratterebbe di una violazione diretta del GDPR, che impone alle aziende l’obbligo di gestire i dati personali in modo accurato e di permettere agli utenti di correggere le informazioni errate che li riguardano. Al momento, però, OpenAI non offre un meccanismo per correggere i dati personali generati da ChatGPT. La soluzione adottata finora è stata quella di bloccare le risposte alle domande che contengono certi nomi, ma questo non è sufficiente a garantire la protezione dei diritti degli utenti.
Joachim Soderberg, avvocato specializzato in privacy e membro di NOYB, ha dichiarato che, qualora OpenAI venisse riconosciuta colpevole di aver violato il GDPR, potrebbe essere soggetta a multe fino al 4% del suo fatturato annuo globale.
Il caso di Holmen non è isolato. ChatGPT è già stato protagonista di episodi simili: ad esempio, ha attribuito falsamente a un sindaco australiano l’implicazione in uno scandalo di corruzione, e ha generato contenuti errati su un giornalista tedesco, accusandolo infondatamente di abusi su minori.
Per cercare di prevenire ulteriori danni, OpenAI ha iniziato a far sì che ChatGPT eviti di rispondere a domande su determinati nomi, come quello di “David Mayer”, utilizzato spesso come esempio nei test di sicurezza.
Nel caso di Holmen, il chatbot ha fornito alcune informazioni corrette – come il luogo di nascita e il sesso dei figli – ma ha poi aggiunto una grave falsità, suggerendo che fosse stato lui a ucciderli. Secondo gli esperti, ciò potrebbe essere il risultato di una combinazione casuale di dati presenti nel set di addestramento, con l’algoritmo che ha erroneamente collegato il nome della persona a casi di cronaca nera.
OpenAI è già sotto indagine da parte delle autorità europee. Nell’aprile 2024, è stata presentata una denuncia in Austria per presunte violazioni del GDPR. Già nel 2023, ChatGPT era stato temporaneamente sospeso in Italia per decisione del Garante della Privacy, a causa della raccolta inadeguata dei dati degli utenti.