Il rapido e inarrestabile progresso dell’Intelligenza Artificiale Generativa sta rivoluzionando la capacità umana di creare contenuti digitali, ma con questa straordinaria potenza emerge anche una minaccia sottile e insidiosa: la crescente difficoltà nel distinguere ciò che è autentico da ciò che è stato fabbricato artificialmente. I cosiddetti “deepfake”, contenuti audio, video o testuali manipolati o interamente generati dall’IA, rappresentano un rischio concreto per la fiducia nell’ecosistema informativo, aprendo la porta a fenomeni di disinformazione, frode e manipolazione. In risposta a questa sfida epocale, la Commissione Europea ha compiuto un passo decisivo e fondamentale, inaugurando ufficialmente i lavori per la definizione di un Codice di Condotta specificamente dedicato alla marcatura e all’etichettatura di tutti i contenuti sintetici generati dall’Intelligenza Artificiale.

Questa iniziativa non nasce nel vuoto normativo, ma si inserisce in modo coerente e complementare nel quadro della legislazione europea, in particolare in relazione all’AI Act. L’articolo 50 di questa normativa stabilisce, infatti, precisi requisiti di trasparenza per i fornitori e gli utilizzatori di sistemi di IA generativa, imponendo l’obbligo di rendere riconoscibili i contenuti sintetici. Deepfake, testi, immagini e audio prodotti da macchine devono essere identificati attraverso marcature chiare e, ove tecnicamente possibile, in formati leggibili dalle macchine (machine-readable). L’obiettivo primario del Codice di Condotta è duplice: da un lato, fornire agli operatori del settore e alle piattaforme online uno strumento volontario ma condiviso che li assista nel conformarsi a questi obblighi legali, e dall’altro, restituire al pubblico la consapevolezza sull’origine dei contenuti fruiti.

Il processo di redazione del Codice avrà una durata stimata di sette mesi, coinvolgendo attivamente esperti indipendenti nominati dall’European AI Office, nonché stakeholder selezionati e la partecipazione a consultazioni pubbliche. Il documento finale è destinato a definire standard comuni per una corretta e non ambigua indicazione dell’uso dell’IA nella creazione di un contenuto. Si delineeranno, ad esempio, le specifiche tecniche per l’utilizzo di watermark digitali, cioè filigrane o codici invisibili all’occhio umano ma integrati in modo persistente nei dati del contenuto (immagine, video o audio) al momento della generazione. Questa tecnica, insieme all’uso di metadati o altri formati leggibili, è cruciale per garantire che l’informazione sull’origine artificiale sia difficilmente rimovibile e interoperabile, cioè leggibile da diverse piattaforme e software. In sintesi, il Codice mirerà a stabilire:

  • Standard di marcatura: I modi concreti per “etichettare” i deepfake.
  • Riconoscimento automatico: Meccanismi che permettano alle macchine di identificare l’origine artificiale.
  • Trasparenza in contesti sensibili: Obblighi più stringenti in particolare per i contenuti che riguardano la vita pubblica, la politica o altri ambiti di interesse generale.

L’iniziativa della Commissione Europea si configura quindi come un vero e proprio atto di protezione della verità nell’era digitale. Non si tratta solamente di imporre un obbligo, ma di costruire un ponte di fiducia tra l’innovazione tecnologica e la società, assicurando che i cittadini possano continuare a navigare l’ecosistema digitale con la certezza di comprendere l’origine e la veridicità di ciò che vedono e leggono. Questo strumento si affiancherà alle normative più ampie, entrando in piena operatività contestualmente all’entrata in vigore dei requisiti di trasparenza dell’AI Act, prevista per l’agosto 2026 (forse).

Di Fantasy