Immagine AI

Nel mondo dell’intelligenza artificiale, uno dei temi più delicati riguarda il confine tra innovazione e responsabilità, tra potenza tecnologica e tutela dei diritti individuali. È in questo spazio che si inserisce la recente collaborazione annunciata da OpenAI con il mondo di Hollywood, volta a prevenire l’uso non autorizzato delle immagini, delle voci e dei ritratti degli attori nella generazione di video tramite Sora 2.

L’attore Bryan Cranston ha reso pubblica la sua preoccupazione dopo la comparsa – all’interno di video generati dall’IA – della sua voce e della sua immagine senza il suo consenso, sollevando la questione non solo come individuo, ma come esempio di una più ampia vulnerabilità professionale: «Sono profondamente preoccupato che il mio lavoro e l’identità di tutti gli attori possano essere utilizzati in modo improprio, non solo la mia», ha dichiarato.

La risposta di OpenAI è stata formale e rapida: in un comunicato congiunto con la Screen Actors Guild‑American Federation of Television and Radio Artists (SAG-AFTRA), con le principali agenzie di talenti come la Creative Artists Agency (CAA) e la United Talent Agency (UTA), l’azienda ha annunciato l’intenzione di rafforzare le proprie policy sull’uso delle voci e delle immagini degli attori nella sua piattaforma. In particolare, è stato ribadito l’impegno a operare con principi di “opt-in” (ossia solo con il consenso esplicito dell’attore) per consentire che la propria immagine e voce possano essere usate da Sora 2.

L’occasione ha portato sotto i riflettori due elementi essenziali: da un lato, la potenza crescente degli strumenti di generazione video di intelligenza artificiale, che rendono più facile che mai replicare volti, voci, movimenti; dall’altro, la necessità di introdurre meccanismi che garantiscano il rispetto dei diritti di ritratto, del copyright e della personalità. OpenAI, pur avendo lanciato Sora 2 con grande evidenza tecnica—descrivendolo come modello in grado di video sempre più realistici e controllabili rispetto alle versioni precedenti—si trova ora a gestire anche le ripercussioni etiche e legali del proprio prodotto.

In precedenza, Sora (la versione originaria) era stata già oggetto di discussione per il rischio di deepfake e generazioni non autorizzate: ad esempio, il sistema faceva emergere contenuti che ritraevano personaggi storici o voci famose senza controllo pieno, suscitando l’allarme di esperti di disinformazione e diritti digitali. OpenAI aveva introdotto filtri di moderazione, policy dedicate e controlli sulla “likeness misuse” (uso improprio della somiglianza) ma la velocità con cui la tecnologia evolveva aveva fatto emergere lacune.

La nuova fase, con la collaborazione attiva tra l’azienda, gli attori e le organizzazioni di settore, segna un punto di svolta: un riconoscimento che non bastano le promesse, servono pratiche concrete e accordi condivisi. OpenAI ha dichiarato che “le generazioni di video che utilizzano un nome, una voce o un volto di una persona richiederanno il suo permesso esplicito”, e che risponderà rapidamente a reclami. Inoltre, l’azienda ha espresso sostegno al progetto di legge federale americano “No Fakes Act”, pensato per vietare generazioni IA di voci e immagini senza autorizzazione.

Per gli attori e per l’industria dello spettacolo questa non è solo una questione tecnica, ma una questione di identità professionale e di controllo sulla propria immagine. Quando la voce o il volto di un attore possono essere generati da un algoritmo e usati in contesti che non ha approvato, si apre una ferita che tocca la creatività, il lavoro e la dignità. Bryan Cranston ha ringraziato pubblicamente OpenAI per aver intensificato le protezioni, ma ha anche avvertito che si tratta di un “campanello d’allarme” per tutti gli interpreti, in quanto «uno di innumerevoli performers la cui voce e somiglianza sono a rischio di appropriazione massiva da tecnologie di replicazione».

La storia di OpenAI e Sora 2 mostra che la frontiera dell’IA video non è più solo questione di capacità tecniche e prestazioni, ma anche – e forse soprattutto – di diritti, consenso e governance. Quando un attore afferma che la “sua immagine” deve essere rispettata, non sta difendendo solo sé stesso, ma simbolicamente l’idea che la tecnologia non debba diventare arbitraria né priva di legittimità. E quando un’azienda sceglie di collaborare con gli attori e con le loro organizzazioni, sta ammettendo che l’innovazione non è solo velocità, ma anche responsabilità.

Di Fantasy