L’emergere di modelli di intelligenza artificiale in grado di generare video ad altissima qualità sta aprendo una fase di forte tensione tra innovazione tecnologica e tutela dei diritti nell’industria dell’intrattenimento. Al centro del dibattito si trova Seedance, sistema di generazione video sviluppato da ByteDance, che negli ultimi giorni è diventato oggetto di polemiche dopo la diffusione online di clip iperrealistiche raffiguranti attori celebri in scene d’azione mai girate. Un breve video di combattimento tra Brad Pitt e Tom Cruise, realizzato con un prompt testuale estremamente sintetico dal regista Ruairi Robinson, ha raggiunto rapidamente milioni di visualizzazioni, sollevando accuse di violazione del copyright e di utilizzo non autorizzato dell’immagine e della voce di artisti protetti.
Dal punto di vista tecnico, Seedance rappresenta una nuova generazione di modelli text-to-video basati su architetture di diffusione e reti neurali multimodali capaci di integrare linguaggio naturale, sintesi visiva e dinamica del movimento. A differenza dei primi modelli video, caratterizzati da instabilità temporale, deformazioni e incoerenze tra fotogrammi, le versioni più recenti sono in grado di mantenere coerenza facciale, illuminazione cinematografica e fisica plausibile delle interazioni. Il salto qualitativo deriva dall’addestramento su dataset di dimensioni enormi che comprendono film, trailer, clip promozionali e materiali audiovisivi ad alta definizione, permettendo al modello di apprendere pattern di regia, montaggio, coreografia e resa espressiva dei volti.
Nel caso del video virale, il sistema ha generato una scena di quindici secondi con qualità comparabile a una produzione professionale, sfruttando la capacità di replicare tratti somatici, postura e movimenti riconducibili agli attori reali. La generazione non si limita a un semplice collage di immagini esistenti, ma costruisce una sequenza dinamica coerente con la grammatica visiva dell’action hollywoodiana, includendo profondità di campo, tagli di montaggio e interazione fisica tra i soggetti. È proprio questa fedeltà stilistica a rendere il contenuto difficilmente distinguibile da una produzione reale e a innescare preoccupazioni nell’industria.
Le reazioni non si sono fatte attendere. Motion Picture Association, attraverso il suo CEO Charles Rivkin, ha accusato ByteDance di aver consentito una violazione su larga scala delle opere protette da copyright, sostenendo che il servizio sarebbe stato lanciato senza adeguate garanzie contro l’uso improprio di contenuti coperti da diritti. Anche il sindacato degli attori SAG-AFTRA ha definito l’uso non autorizzato di immagini e voci dei propri membri una chiara violazione delle tutele legali e contrattuali, sottolineando che l’intelligenza artificiale non può prescindere dal consenso degli interessati e da meccanismi di responsabilità.
Dal punto di vista giuridico, la questione si articola su più livelli. In primo luogo vi è il tema dell’addestramento del modello su opere protette da copyright, aspetto già oggetto di contenziosi in ambito text-to-image e text-to-text. In secondo luogo emerge il problema della riproduzione dell’immagine e della voce di persone reali senza autorizzazione, che coinvolge non solo il diritto d’autore ma anche il diritto all’immagine e la normativa sulla tutela della personalità. La possibilità di generare scene d’azione con personaggi noti senza l’intervento di troupe, sceneggiatori e attori reali solleva interrogativi sulla sostenibilità economica di interi segmenti produttivi.
ByteDance ha dichiarato che i contenuti contestati sarebbero stati generati durante una fase di test pre-lancio limitata e ha affermato di aver disabilitato la possibilità di caricare immagini di persone reali. L’azienda sostiene di rispettare la proprietà intellettuale e di essere impegnata nell’implementazione di sistemi di monitoraggio e politiche di controllo per prevenire abusi. Tuttavia, la rapidità con cui clip di alta qualità sono apparse su piattaforme come X dimostra quanto sia complesso contenere la diffusione di contenuti generati automaticamente una volta che la tecnologia è resa disponibile.
Parallelamente, il dibattito tocca anche il valore creativo dell’AI generativa. Alcuni osservatori, tra cui la sceneggiatrice Heather Ann Campbell, sostengono che i video prodotti finora siano assimilabili a fanfiction ad alto realismo, capaci di replicare stili e personaggi esistenti ma non di proporre narrazioni autenticamente originali. Dal punto di vista tecnico, infatti, i modelli generativi eccellono nella ricombinazione di pattern appresi ma faticano ancora a costruire universi narrativi coerenti su lunghe durate o a introdurre innovazioni stilistiche radicali. L’originalità, intesa come creazione di concetti inediti e strutture narrative innovative, resta un ambito in cui l’intervento umano mantiene un vantaggio significativo.
Tuttavia, la distinzione tra imitazione e innovazione potrebbe diventare sempre più sfumata man mano che i modelli integreranno capacità di pianificazione narrativa, coerenza semantica estesa e controllo fine della regia virtuale. Se un sistema è in grado di generare non solo una scena isolata ma un intero cortometraggio coerente, con sviluppo dei personaggi e arco drammatico, l’impatto sull’industria cinematografica potrebbe essere strutturale. I costi di produzione potrebbero ridursi drasticamente per alcune tipologie di contenuto, mentre nuove professioni legate alla supervisione, al prompting avanzato e alla validazione legale potrebbero emergere.
