Meta, l’azienda guidata da Mark Zuckerberg, è al centro di una controversia legale riguardante l’uso di libri piratati per l’addestramento dei suoi modelli di intelligenza artificiale (AI). Secondo documenti legali presentati presso la Corte Distrettuale del Nord della California, Zuckerberg avrebbe approvato l’utilizzo del dataset LibGen—una raccolta nota per contenere opere protette da copyright distribuite illegalmente—per addestrare i modelli linguistici di Meta.

La questione è emersa quando un gruppo di autori, tra cui la comica Sarah Silverman e lo scrittore Ta-Nehisi Coates, ha intentato una causa contro Meta nel 2023. Gli autori sostengono che le loro opere siano state utilizzate senza autorizzazione per addestrare il modello linguistico di grandi dimensioni (LLM) di Meta, denominato LLaMA. Meta ha replicato, invocando il principio del “fair use” (uso equo) per giustificare l’impiego di tali materiali.

In una fase iniziale del procedimento, Meta ha ottenuto una vittoria legale: il giudice Vince Chhabria ha respinto le accuse secondo cui l’AI di Meta avrebbe violato i diritti d’autore generando testi basati sulle opere degli autori. Inoltre, il giudice ha rigettato l’affermazione che Meta avesse rimosso intenzionalmente le informazioni di gestione dei diritti d’autore (CMI) dai materiali utilizzati. Tuttavia, è stato concesso agli autori il permesso di presentare una denuncia modificata.

Nella denuncia aggiornata, gli autori sostengono che i dipendenti di Meta fossero consapevoli della natura illegale del dataset LibGen e delle potenziali implicazioni legali derivanti dal suo utilizzo. Nonostante ciò, si afferma che Zuckerberg abbia autorizzato l’uso di LibGen per l’addestramento dei modelli AI. Inoltre, si sostiene che Meta abbia sviluppato script per rimuovere le informazioni di copyright dai dati, un’azione che potrebbe essere interpretata come un tentativo deliberato di occultare la violazione dei diritti d’autore.

Queste nuove rivelazioni rafforzano le accuse di violazione del copyright contro Meta e potrebbero riaprire le discussioni sulle responsabilità legali delle aziende tecnologiche nell’utilizzo di materiali protetti per l’addestramento dei loro modelli AI. Il giudice Chhabria ha permesso la presentazione della denuncia modificata, ma mantiene un atteggiamento scettico riguardo alla validità delle accuse di frode e violazione delle CMI.

Di Fantasy