La violazione del copyright è diventata un tema centrale nel mondo dell’IA, con i governi che stanno promulgando leggi per cercare di controllare i produttori di intelligenza artificiale e i loro sistemi. Durante un’audizione al Congresso, il CEO di OpenAI, Sam Altman, ha concordato sulla necessità di una regolamentazione governativa per garantire la responsabilità dei sistemi di intelligenza artificiale, inclusa l’attribuzione e i diritti adeguati per i creatori di contenuti originali.

“Abbiamo parlato con artisti e titolari dei diritti sui loro pensieri riguardo al copyright e all’attribuzione”, ha detto Altman. “Penso che le persone abbiano il pieno controllo su come i loro contenuti e le loro creazioni vengano utilizzati in questa tecnologia.”

Altman ha sottolineato che la creazione di modelli di intelligenza artificiale è pensata per aiutare e supportare i creatori e gli artisti, non per rubare la loro proprietà intellettuale. “Questo è esattamente il modello economico”, ha affermato Altman. Ma la stessa cosa non si può dire per il governo.

D’altra parte, sembra che gli artisti e i creatori che OpenAI desidera assistere con i suoi prodotti siano in realtà contrari all’adozione di tali tecnologie. Come la Writer’s Guild of America che si è opposta all’uso di ChatGPT nella scrittura di sceneggiature, le principali etichette musicali stanno inviando avvisi ai servizi di streaming per rimuovere gli “AI soundalike”.

Mentre Altman e altri produttori di intelligenza artificiale si preoccupano di allineare i loro modelli con obiettivi economici ed etici, il governo potrebbe intervenire per ottenere un maggiore controllo sulla tecnologia in sviluppo e influenzarne il futuro.

Durante la stessa audizione, Gary Marcus, uno scettico dell’IA, ha sollevato il fatto che non esistono leggi che affrontino specificamente la questione del copyright riguardante questi modelli di IA generativa. In risposta, il senatore Josh Hawley ha suggerito che la sezione 230 della legge sul copyright potrebbe essere applicata a modelli di questo tipo.

Se il governo acquisisse il potere di controllare lo sviluppo dell’IA con il pretesto di “proteggere” i titolari dei diritti d’autore, il rapido progresso di questi modelli di intelligenza artificiale verrebbe interrotto. Inoltre, la dichiarazione di Hawley suggerisce che il governo potrebbe imporre un divieto assoluto del copyright sui modelli di IA generativa, il che potrebbe comportare problemi eccessivi senza affrontare le vere preoccupazioni.

David Holz, fondatore di Midjourney, sembra non preoccuparsi particolarmente della violazione del copyright. In un’intervista a Forbes, Holz ha affermato di utilizzare immagini senza ottenere il permesso dai proprietari, sostenendo che sia impossibile farlo con l’ampio insieme di dati disponibili.

Secondo la nuova bozza dell’atto sull’intelligenza artificiale proposta dal Parlamento europeo, qualsiasi contenuto generato da modelli di intelligenza artificiale come Midjourney o Stable Diffusion dovrà dichiarare di aver utilizzato materiale protetto da copyright per l’addestramento e attribuire in modo appropriato i creatori originali. Sembrerebbe una pratica equa, a meno che non venga esaminata attentamente.

L’articolo 28b (4) del progetto di legge stabilisce che il modello di base utilizzato nei sistemi di IA per generare immagini, testi, audio o video deve rispettare gli obblighi di trasparenza dell’articolo 52 (1) e divulgare pubblicamente un riepilogo dettagliato dei dati utilizzati per l’addestramento, conformemente alle leggi sul diritto d’autore.

Se queste aziende di IA generativa dovessero riesaminare l’intero corpus di dati su cui sono state addestrate, che sono in gran parte raccolti da Internet e soggetti a copyright, non sarebbero in grado di creare ulteriori modelli di intelligenza artificiale. Inoltre, risulta estremamente difficile per le stesse aziende rintracciare quali dati specifici sono stati utilizzati per generare contenuti specifici, rendendo l’attribuzione un compito arduo.

Un esempio significativo è quello di Shutterstock, che ha preso misure per affrontare la corretta licenza delle immagini stock utilizzate per l’addestramento dei modelli generativi di IA. L’azienda ha proposto di pagare una “giusta quota” attraverso i diritti d’autore agli artisti ogni volta che un’immagine venisse utilizzata per generare arte. Sebbene i dettagli su come funzionerebbe questo modello siano stati vaghi, l’azienda ha istituito un fondo per compensare gli artisti. Tuttavia, questa iniziativa è stata criticata poiché sembrava trattare il lavoro degli artisti come meri token.

Inoltre, ciò ha posto una pressione significativa sui creatori di questi modelli, come OpenAI e StabilityAI, ostacolando ulteriori sviluppi in questa tecnologia e mettendo a rischio i potenziali vantaggi. Quando si copiano manualmente immagini o si utilizza il lavoro di qualcun altro, ad esempio con Photoshop, i titolari dei diritti d’autore possono rilevare chiaramente l’uso del loro lavoro. Tuttavia, con i modelli generativi, la vasta quantità di dati utilizzati per l’addestramento rende difficile per i detentori dei diritti d’autore rilevare e attribuire l’utilizzo dei loro contenuti.

Secondo la nuova legge proposta, chiunque violi le disposizioni del copyright specificate negli articoli 28 e 52 sarebbe soggetto a multe fino a “10 milioni di euro o al 2% del fatturato annuo, se superiore”.

D’altra parte, è vero che queste tecnologie sollevano diverse questioni etiche riguardo all’utilizzo di dati non autorizzati o privati per l’addestramento. Tuttavia, è necessario trovare un giusto equilibrio tra la violazione del copyright e la costruzione di modelli generativi di intelligenza artificiale.

Tra le preoccupazioni riguardo alla proposta di legge sull’intelligenza artificiale del Parlamento europeo e le discussioni al Senato degli Stati Uniti, l’Ufficio del Copyright degli Stati Uniti ha specificato alcune linee guida per la registrazione di opere create esclusivamente da macchine. Ad esempio, se una tecnologia di intelligenza artificiale genera opere complesse, come scritti, immagini o musica, basandosi su suggerimenti umani, gli elementi tradizionali di paternità non vengono registrati come parte delle opere.

La ragione di ciò è che la tecnologia di intelligenza artificiale determina gli elementi espressivi, anziché l’utente umano, rendendo il contenuto generato non idoneo alla protezione del copyright.

Tuttavia, un’opera che incorpora materiale generato dall’intelligenza artificiale può ancora beneficiare della protezione del copyright se include una quantità sufficiente di contributo umano. Ad esempio, se un essere umano seleziona o organizza in modo creativo il contenuto generato dall’intelligenza artificiale o apporta modifiche che soddisfano gli standard per la protezione del copyright, la protezione si applica solo agli aspetti forniti dall’essere umano.

Un esempio significativo in questa direzione è il caso della scimmia macaco di nome Naruto che ha scattato dei selfie usando la macchina fotografica di un fotografo. Successivamente, il fotografo è stato citato in giudizio da People for the Ethical Treatment of Animals (PETA) che sosteneva che la scimmia, Naruto, fosse la legittima proprietaria delle fotografie e che quindi il fotografo stesse violando il copyright di Naruto.

Tuttavia, la Corte d’Appello del 9º Circuito ha stabilito che entità non umane non possono beneficiare della protezione del copyright. Questa decisione è in linea con la definizione di “opera originale” dell’Ufficio del Copyright degli Stati Uniti, che richiede esplicitamente il coinvolgimento di un “autore umano”.

Questa potrebbe essere una direzione da seguire anche per l’IA generativa. Invece di seguire il percorso europeo, gli Stati Uniti potrebbero continuare ad aderire alle attuali leggi sul copyright. Le aziende di intelligenza artificiale generativa dovrebbero adottare tecniche e trovare modi per incentivare gli artisti e gli autori originali. Ciò incoraggerebbe l’innovazione nell’IA con una regolamentazione adeguata, evitando un eccessivo controllo da parte dei governi.

Di Fantasy