Sam Altman, CEO di OpenAI, affronta con franchezza uno dei nodi centrali del dibattito sull’intelligenza artificiale: il rapporto con il diritto d’autore. In particolare, Altman riferisce che, secondo lui, arriverà il giorno in cui alcuni detentori di opere proteggeranno l’IA da sé stessa, lamentando che i loro contenuti — inseriti nell’IA — “non compaiano” più nei risultati. L’immagine evocata è potente: l’algoritmo che diventa tanto autonomo da sottrarre i suoi fondamenti alle stesse fonti che lo hanno nutrito.
Altman racconta che, prima del lancio di “Sora”, OpenAI abbia avuto discussioni con diversi possessori di diritti, chiedendo a ciascuno se fossero contrari all’utilizzo delle loro opere da parte di Sora. Il punto non era tanto “potete impedircelo?”, ma “voi pensate che ci siano azioni da vietare?”. In alcuni casi, i detentori rispondevano che non gradivano la comparsa dei loro personaggi in contesti degradanti, oppure azioni non autorizzate, ma raramente si era ventilata l’idea di bloccare del tutto l’uso dell’opera stessa. Altman sottolinea che, in quel contesto, era possibile che alcuni diritti si esprimessero con richieste di regole (ad esempio: “questo personaggio non faccia certe cose”), piuttosto che con un rifiuto totale.
La questione che emerge, e che Altman sembra anticipare come inevitabile, è che il deposito di opere nel “carburante” dei modelli generativi non resterà senza ripercussioni. Quando l’IA sarà così presente da generare universi narrativi, immagini, scenari potenzialmente indistinguibili da creazioni umane, la domanda “chi merita visibilità?” diventerà spinosissima. Altman argomenta che, tra qualche tempo, qualcuno potrebbe lamentarsi non che la sua opera sia usata da un modello, ma che non sia usata: “Perché non appare nei risultati? Non è giusto!” — una rivendicazione paradossale, che ribalta la logica del contenuto esclusivo, verso un’aspettativa di presenza automatica nel sistema stesso.
Altman distingue poi tra immagini e video: sostiene che, nel caso delle immagini, gran parte dei contenuti è già generato con riferimenti a stili, elementi visivi, motivi che derivano da fonti preesistenti. Invece, il passaggio al video (e ai contenuti animati) è diverso: la dimensione narrativa, emotiva, immersiva trasforma la relazione con l’opera originale. Secondo lui, alcuni autori potrebbero accusare in futuro che la generazione video prescinderebbe troppo dall’originale, che romperà la connessione emozionale, e che la richiesta di regolamentazione per “come far apparire i miei personaggi” sarà più pressante.
Nel corso della conversazione, Altman cita il concetto di “coevoluzione” tra tecnologia e società: l’IA non è un’entità che si sviluppa indipendentemente, ma un organismo che interagisce con la cultura, con le aspettative, con le norme. Non basta progettare tecnologie straordinarie, serve accompagnare la loro diffusione con un’attenzione al modo in cui la collettività reagisce, regola e ridefinisce i confini. “Non possiamo solo lanciare una tecnologia e poi allontanarci”, afferma: serve che le regole mature emergano nel dialogo con l’utenza e con le istituzioni.
Altman fa riferimento al fatto che oggi, già con gli strumenti attuali, alcune proprietà intellettuali esistono in un limbo: vengono citate, integrate, talvolta rimodellate, e al reparto giuridico delle società creative non sempre è chiaro dove intervenire. Con l’evoluzione dell’IA, quel limbo rischia di trasformarsi in zona contesa. Ed è qui che secondo lui sarà necessario che la società reagisca non solo con leggi ex post, ma con protocolli condivisi, con contratti, con meccanismi che diano visibilità, controllo, profilazione delle fonti, ed eventualmente compensi.
Un altro punto che emerge è la temporalità: Altman suggerisce che potremmo trovarci tra un anno — o forse meno — in una situazione in cui lamentele come “OpenAI non ha usato il mio personaggio in Sora” diventino parte integrante del dibattito pubblico. Una volta che lo status quo si sposta, ciò che sembrava permesso diventa oggetto di rivendicazione. E chi oggi lavora con creatività digitale, case editrici, universi narrativi, dovrà considerare non solo i diritti proibitivi, ma i diritti attesi, le pretese di visibilità, la partecipazione nel modello generativo.
Questa intervista, dunque, dà forma a un orizzonte che molti sentono sullo sfondo, ma che pochi osano articolare con chiarezza: l’IA non è solo un generatore, è un palcoscenico. In quel palcoscenico, chi “sale” non sarà soltanto chi ha creato l’opera originale, ma chi ha negoziato l’accesso, la presenza, il diritto a comparire. Altman sembra dire che, prima o poi, verrà richiesto non solo “non farmi comparire senza autorizzazione”, ma “fammici comparire almeno un poco”. E che il bilancio tra diritti e algoritmi non potrà essere deciso solo da tecnologi, ma da legislatori, creatori e cittadini.