La decisione del Tribunale di Roma di annullare la sanzione da 15 milioni di euro inflitta dal Garante per la protezione dei dati personali a OpenAI rappresenta un passaggio rilevante nel rapporto tra regolazione europea e sviluppo dell’intelligenza artificiale. La multa, emessa nel dicembre 2024, riguardava presunte violazioni del regolamento europeo GDPR legate al funzionamento di ChatGPT, in particolare sull’uso dei dati personali per l’addestramento dei modelli e sulla trasparenza nei confronti degli utenti. Con la sentenza, il giudice ha accolto il ricorso dell’azienda statunitense, annullando la sanzione e modificando il quadro giuridico del confronto tra autorità di controllo e sviluppatori di sistemi AI.

L’origine del contenzioso risale all’indagine avviata dall’autorità italiana dopo il lancio globale di ChatGPT, quando erano emerse preoccupazioni sul trattamento dei dati personali utilizzati per l’addestramento dei modelli linguistici. Il Garante aveva contestato la mancanza di una base giuridica adeguata per l’uso massivo di informazioni raccolte dal web, oltre a carenze nella trasparenza dell’informativa, nella verifica dell’età degli utenti e nella gestione di un incidente di sicurezza avvenuto nel 2023. Questi elementi avevano portato all’emissione della sanzione amministrativa, accompagnata da richieste di adeguamento tecnico e organizzativo.

OpenAI aveva impugnato il provvedimento sostenendo che la multa fosse sproporzionata rispetto alle contestazioni e che i propri sistemi fossero conformi allo spirito della normativa europea. Il Tribunale di Roma aveva già disposto nel marzo 2025 una sospensione cautelare della sanzione, rinviando la decisione definitiva sul merito. Con la sentenza del 2026, la multa è stata annullata, eliminando l’obbligo di pagamento e chiudendo, almeno in questa fase, la controversia tra l’azienda e l’autorità italiana.

La decisione assume particolare importanza perché riguarda uno dei nodi principali dell’intelligenza artificiale generativa: l’uso dei dati per l’addestramento. I modelli linguistici vengono sviluppati analizzando grandi quantità di contenuti provenienti da fonti pubbliche e private, e la compatibilità di questo processo con il GDPR rappresenta una delle questioni più complesse del settore. L’annullamento della sanzione non modifica la normativa esistente, ma indica la necessità di un’interpretazione giuridica più precisa e di criteri chiari per valutare la liceità del trattamento dei dati nei sistemi AI.

La sentenza ha anche un impatto sul rapporto tra regolatori nazionali e aziende tecnologiche globali. Negli ultimi anni l’Europa ha adottato un approccio prudenziale verso l’intelligenza artificiale, introducendo controlli e richieste di conformità. Il caso OpenAI dimostra però che le decisioni delle autorità amministrative possono essere riesaminate dalla magistratura ordinaria, creando un equilibrio tra tutela della privacy e sviluppo tecnologico. Questo passaggio evidenzia il ruolo crescente dei tribunali nella definizione delle regole applicabili all’AI.

L’annullamento della multa non significa che le questioni sulla privacy siano risolte. Il Garante potrebbe adottare nuove iniziative o aggiornare le proprie linee guida, mentre a livello europeo continua il lavoro di armonizzazione tra GDPR e regolamenti specifici sull’intelligenza artificiale. La decisione giudiziaria, tuttavia, introduce un precedente che potrebbe influenzare futuri procedimenti, richiedendo alle autorità una maggiore solidità giuridica nelle contestazioni.

La sentenza riduce il rischio di sanzioni immediate per gli sviluppatori di sistemi AI, ma allo stesso tempo evidenzia la necessità di definire standard condivisi per il trattamento dei dati. Le aziende che sviluppano modelli generativi dovranno comunque dimostrare conformità alle norme, mentre le autorità dovranno chiarire le modalità di applicazione del GDPR a tecnologie basate sull’apprendimento automatico.

Di Fantasy