È un’estate piena di cambiamenti epocali per l’intelligenza artificiale in Europa: in luglio la Commissione Europea ha rilasciato un Template obbligatorio per i modelli di intelligenza artificiale di “uso generale” (GPAI), che impone ai fornitori di svelare apertamente le basi dei loro algoritmi. Con questa mossa, Bruxelles lancia un messaggio chiaro: la trasparenza non è più un’opzione, ma un must legale.
Il modello “scatola nera”, dove non si spiegano né i dati utilizzati né la logica interna, non sarà più accettabile per i modelli operanti nel mercato UE. Addestrare sistemi sofisticati senza fornire una documentazione trasparente diventa un rischio legale, oltre che etico.
Il Template, previsto dall’AI Act, obbliga tutti i provider di GPAI a pubblicare un riassunto pubblico dei dati usati per l’addestramento. Tra le categorie obbligatorie da rendere note ci sono:
- dataset pubblicamente disponibili;
- dati a pagamento o con licenza privata;
- contenuti raccolti via scraping dal web;
- dati degli utenti e dati sintetici (generati artificialmente).
Inoltre, il Template comprende tre sezioni fondamentali:
- Informazioni generali, come l’identità del provider, il tipo di modello e le modalità di input/output dei dati;
- Elenco delle fonti, dettagliando origine e natura dei dataset;
- Aspetti di processing rilevanti, come la gestione di contenuti illegali e la tutela della proprietà intellettuale.
Il 2 agosto 2025 è stata la data d’inizio delle nuove norme: ogni modello GPAI immesso sul mercato UE da allora deve avere subito il relativo riassunto pubblico. Per i modelli già presenti prima del 2 agosto 2025, c’è tempo fino al 2 agosto 2027 per adeguarsi. In caso di informazioni mancanti, il provider deve spiegare le ragioni di tali lacune. Le sanzioni sono concrete: fino al 3 % del fatturato globale o 15 milioni di euro, a seconda di quale cifra sia più elevata.
Il Template non è frutto del nulla, ma del confronto e della partecipazione. Nella sua elaborazione, la Commissione ha coinvolto oltre 430 stakeholder, tra provider, associazioni, titolari di diritti, mondo accademico e società civile. Le integrazioni più recenti tengono conto di 111 commenti mirati e approfonditi.
Sappiamo quanto siano vaste e “opache” le basi dati utilizzate per addestrare modelli come GPT o altri sistemi generativi: il Template porta finalmente un faro su ciò che finora è stato nascosto. Più trasparenza significa:
- consentire ai detentori dei diritti d’autore di capire se i loro contenuti sono stati usati e in che forma;
- aumentare la fiducia degli utenti e dei consumatori verso l’IA europea;
- spingere i provider a progettare sistemi con controlli integrati di audit, tracciabilità, e documentazione fin dal design.
In contrapposizione all’approccio europeo, il nuovo US AI Action Plan punta piuttosto alla deregolamentazione, allo snellimento burocratico e allo sviluppo sostenuto di infrastrutture: la trasparenza viene sacrificata sull’altare della competitività.
Come accaduto per il GDPR, aziende che non hanno costruito sistemi con la privacy o la tracciabilità di default rischiano ostacoli e costi elevati in fase di adeguamento. Coloro che hanno già investito in una progettazione “by design” guadagnano fiducia e dividendi sul lungo periodo.
In un contesto globale fratturato, chi gioca sul serio nel campo dell’IA non può ignorare i differenti binari normativi: trasparenza in Europa, libertà regolatoria negli Stati Uniti. Le grandi aziende internazionali — e soprattutto chi mira al mercato europeo — dovranno navigare tempi più complessi, ma più responsabili.