Immagine AI

Negli ultimi tempi si è diffusa una notizia che ha sollevato parecchie preoccupazioni tra chi crea contenuti: pare che oltre 15,8 milioni di video da più di 2 milioni di canali YouTube siano stati scaricati, senza consenso, da aziende, laboratori e centri di ricerca, per essere usati come dati d’addestramento per modelli generativi di intelligenza artificiale. Tra questi video, quasi un milione sono tutorial o contenuti “how-to”, la categoria che più interessa chi studia di apprendimento visivo e generazione video.

Queste raccolte di video sono state aggregate in almeno 13 dataset differenti, condivisi su piattaforme come Hugging Face, una comunità molto utilizzata da sviluppatori e ricercatori di modelli AI. Spesso i video vengono resi “anonimizzati” in questi dataset: nessun titolo esplicito, nessun nome chiaro del creator. Ma rimangono elementi che, in certi casi, permettono ancora di risalire alla sorgente originaria.

Le ragioni dietro questo fenomeno sono in parte comprensibili, almeno dal punto di vista tecnico: i modelli generativi che producono video, o che supportano funzioni automatiche di editing, richiedono enormi quantità di dati visivi per imparare a riconoscere scene, oggetti, movimenti, transizioni, suoni. YouTube è una miniera enorme di varietà: paesaggi, persone che spiegano, azioni che si svolgono, ambienti diversi. Si tratta di materiale estremamente utile per far “allenare” le reti neurali, affinché diventino capaci di generare clip realistiche, tradurre video, automatizzare processi di filtri visuali, strumenti di editing automatico.

Per ottenere questi dataset, i video vengono scaricati in massa, a volte suddivisi in clip più piccole, descritti da annotazioni (automatiche o manuali) per far sì che i modelli possano associare immagine, suono, movimento, testo (se presente), sottofondi, soggetto, contesto. Alcune pratiche includono l’esclusione dei video con watermark, logo ben visibile o sovratitoli, perché questi elementi “inquineranno” il processo di apprendimento: i modelli tendono a ignorare quelli con meno rumore, meno elementi distrattivi.

Qui si entra nel vivo del problema: molti creator, come il falegname Jon Peters, che condivide video tutorial su falegnameria, non sapevano che i loro video venissero usati per questo tipo di addestramento. Se da una parte la trasformazione, il remix, l’uso critico è normale in Internet, dall’altra c’è una linea — il copyright, il rispetto dell’opera, del valore che un video ha per chi lo ha creato — che pare superata senza autorizzazione.

Le piattaforme coinvolte, e le aziende che costruiscono questi modelli, spesso invocano il concetto di “fair use” o uso legittimo, affermando che l’uso per addestramento è ammesso da molte normative nazionali e internazionali, specialmente se l’uso non è direttamente commerciale, o se il contenuto è “trasformato”. Ma la legge non è uguale dappertutto, e nei casi che sono già emersi i tribunali stanno mettendo alla prova queste argomentazioni, considerando la violazione dei termini di servizio delle piattaforme e, spesso, la violazione del diritto d’autore.

I rischi che emergono sono concreti e sentiti da chi ogni giorno produce contenuti: da un lato la sensazione che il proprio lavoro possa essere “usato senza riconoscimento”, e dunque senza compenso né visibilità; dall’altro la concorrenza che inizia ad affacciarsi da video generati artificialmente, che simulano tutorial, collage, remix, magari con qualità non eccellente ma sufficientemente persuasiva per attirare click. Questo può portare a saturazione, a deprezzamento della produzione originale, a disincentivare la creatività autentica.

C’è anche impatto sulla fiducia: i creator possono sentirsi traditi se piattaforme non proteggono sufficientemente i loro diritti, se i termini di servizio non sono chiari o se non vengono fatti rispettare. E poi c’è la questione morale: fino a che punto può essere accettabile che un’azienda prenda materiale audiovisivo altrui — creato con sforzo, passione, competenza — e lo usi come “carburante” per addestrare modelli che possono farne uso (anche indirettamente) per profitto?

Il futuro può andare in diverse direzioni. Una possibile via è quella della regolamentazione più chiara: leggi che definiscano cosa è consentito nel training dei modelli AI, cosa no, come remunerare o almeno riconoscere i creatori dei contenuti usati. Alcuni paesi stanno iniziando in questa direzione, studiando quanto copyright, privacy e proprietà intellettuale debbano essere estesi ai dati ricavati per addestrare l’IA.

Un’altra direzione è quella di strumenti tecnologici di difesa: watermark più persistenti, sistemi che rendano difficile l’anonimizzazione, oppure metadata che permettano di tracciare la provenienza dei video, cosicché se un dataset usa materiale protetto, ci sia responsabilità.

Potrebbe crescere anche la sensibilità pubblica: utenti che scelgono di supportare creator, che cercano contenuti originali, che distinguono tra ciò che è generato artificialmente e ciò che è frutto di lavoro umano.

L’indagine che ha portato alla luce l’uso non autorizzato massiccio di video YouTube per addestramento AI non è solo una cattiva notizia per chi crea contenuti: è un punto di svolta per capire quanto la tecnologia stia ridefinendo il concetto stesso di produzione culturale, di valore di un contenuto, di proprietà intellettuale.

La sfida che abbiamo davanti non è semplicemente “stop agli abusi” o “più libertà per l’IA”: è trovare un equilibrio in cui innovazione, efficienza, capacità generativa, possano convivere con rispetto dei diritti, responsabilità, rispetto delle persone che dietro quei video ci sono.

Di Fantasy