Oh, eccoci di nuovo! L’Italia, con la sua abituale passione per la privacy, ha puntato il dito contro il povero ChatGPT di OpenAI, accusandolo di violare le sacre norme sulla protezione dei dati personali dell’Unione Europea. Ma aspettate, non è la prima volta! Già nel marzo dell’anno scorso, l’Italia si era guadagnata il titolo di “Primo Paese dell’UE a Dare il Rosso a ChatGPT” per gli stessi motivi.
Reuters, sempre sul pezzo, ci informa che l’Autorità italiana per la protezione dei dati personali (noto anche come Garante della Privacy, suona più elegante, no?) ha evidenziato che ChatGPT ha infranto le regole della privacy dell’UE. Ma non è tutto: dopo 10 mesi di indagine, OpenAI ha ricevuto una notifica preliminare di violazione. La risposta di OpenAI? Hanno 30 giorni di tempo per raccontare la loro versione.
Il DPA, che non si tira indietro quando si tratta di privacy, è una delle agenzie più zelanti dell’UE nel valutare la conformità delle piattaforme AI. E questa volta? I dettagli della violazione sono avvolti nel mistero, ma sembra che ci siano “elementi indicativi” di violazioni della privacy. Ora, se OpenAI verrà giudicata colpevole, potrebbe dover pagare una multa fino a 20 milioni di euro, o il 4% delle vendite annuali globali. Niente male come conto da pagare!
Ma aspettate, c’è di più: il DPA potrebbe anche ordinare a OpenAI di cambiare il modo in cui tratta i dati. Se non si adeguano, addio servizi in UE.
Quando l’Italia ha bloccato ChatGPT, ha criticato la mancanza di una base legale per raccogliere e memorizzare montagne di dati personali. E le risposte imprecise di ChatGPT? Un altro punto dolente. Per riattivare il servizio, OpenAI ha dovuto seguire le regole imposte dalle autorità italiane, comprese la pubblicazione dei metodi di elaborazione dei dati e l’introduzione di strumenti per correggere ed eliminare informazioni personali create in modo errato.
Ora, l’Italia ha raggiunto una conclusione preliminare: ChatGPT sta ancora infrangendo le normative dell’UE. Il problema? OpenAI non ha chiesto il permesso ai molti utenti web i cui dati sono stati utilizzati. Potrebbe quindi essere necessario ritirare o distruggere il modello e addestrarne uno nuovo con dati approvati.
Il DPA, però, dice che “il problema con i dati per l’addestramento dei modelli è solo parte del problema”. Non ci dicono esattamente cosa sia stato violato.
L’annuncio dell’Italia non è definitivo. Stanno aspettando la risposta di OpenAI prima di prendere una decisione finale. Sembra proprio un episodio di una serie TV, non trovate? “L’Intelligenza Artificiale e la Grande Battaglia per la Privacy: Prossimamente.”