Un rinomato studio legale con sede in California ha intrapreso un’azione legale collettiva contro OpenAI. La causa afferma che OpenAI ha ampiamente violato i diritti d’autore e la privacy di numerose persone utilizzando dati prelevati da Internet per addestrare la propria tecnologia.

Non è la prima volta che Anthony Trupia avvia una causa legale, sostenendo che OpenAI, un’organizzazione presumibilmente senza scopo di lucro a beneficio dell’intera umanità, abbia commesso una frode su larga scala ai danni di donatori, beneficiari e del pubblico in generale, mettendo a rischio “tutta l’umanità” per il proprio profitto personale.

Lo scorso novembre, è stata intentata un’azione legale contro Microsoft, OpenAI e GitHub per aver copiato il codice concessogli in licenza per sviluppare il suo Copilot basato sull’intelligenza artificiale. Questa si è trasformata nel loro peggiore incubo e continua a crescere. Ora stanno cercando disperatamente un’uscita, chiedendo al tribunale di respingere una proposta di azione collettiva.

Durante un’audizione al Senato degli Stati Uniti, il carismatico Sam Altman ha riconosciuto che l’azienda era stata citata in giudizio molte volte in passato. Quando il senatore americano Lindsey Graham gli ha chiesto il motivo, Altman ha risposto: “Beh, voglio dire, sono state per lo più cose piuttosto frivole, come credo accada a qualsiasi azienda”, senza entrare nei dettagli.

Ma l’ultimo caso, depositato presso un tribunale federale nel distretto settentrionale della California, è solo uno dei molti. Si propone di testare una nuova teoria legale secondo cui OpenAI ha violato i diritti di milioni di utenti di Internet utilizzando i loro commenti sui social media, post di blog, articoli di Wikipedia e persino ricette di famiglia. Lo studio legale responsabile della causa, Clarkson, è specializzato in azioni collettive su larga scala che riguardano diverse problematiche, come violazioni dei dati e pubblicità ingannevole.

Ryan Clarkson, socio amministratore dello studio legale, ha dichiarato che intendono rappresentare “persone reali le cui informazioni sono state illegalmente ottenute e sfruttate per lo sviluppo di questa tecnologia altamente influente”. OpenAI non ha risposto alle richieste di commento sulla causa.

Questa azione legale affronta una questione significativa e irrisolta riguardante la proliferazione di strumenti “generativi” di intelligenza artificiale, come chatbot e generatori di immagini. Queste tecnologie elaborano grandi quantità di dati testuali da Internet e imparano a stabilire connessioni tra di loro.

Dopo un’ampia acquisizione di dati, questi “modelli linguistici di grandi dimensioni” acquisiscono la capacità di prevedere risposte adeguate alle suggestioni, consentendo loro di intraprendere conversazioni complesse, comporre poesie e superare anche esami professionali. Tuttavia, le persone che hanno creato originariamente miliardi di parole non hanno mai dato il permesso di utilizzare i loro dati a scopo di lucro da parte di aziende come OpenAI.

Clarkson ha affermato: “Tutte queste informazioni vengono raccolte su larga scala senza che mai sarebbero dovute essere utilizzate da un modello linguistico di grandi dimensioni”. Ha espresso la speranza che questa causa porti alla definizione di linee guida per l’addestramento degli algoritmi di intelligenza artificiale e ad una giusta compensazione per le persone il cui dati sono stati utilizzati.

Lo studio legale ha già riunito un gruppo di persone che hanno avviato la causa e sta attivamente cercando altri partecipanti.

La legalità dell’utilizzo di dati prelevati da Internet, disponibili al pubblico, per addestrare strumenti di intelligenza artificiale redditizi rimane incerta. Alcuni sviluppatori di intelligenza artificiale sostengono che l’utilizzo di tali dati rientri nel concetto di “fair use” nella legge sul copyright, che consente eccezioni se il materiale viene trasformato in modo significativo. Katherine Gardner, un avvocato di proprietà intellettuale presso Gunderson Dettmer, una società che rappresenta principalmente start-up tecnologiche, ha suggerito che gli artisti e gli altri creatori che possono dimostrare che le loro opere protette da copyright sono state utilizzate per l’addestramento di modelli di intelligenza artificiale potrebbero avere una causa contro le aziende. Tuttavia, le persone che hanno semplicemente pubblicato o commentato sui siti web hanno meno probabilità di ottenere un risarcimento dei danni.

La nuova azione legale collettiva contro OpenAI amplia le accuse sostenendo che l’azienda non fornisce sufficiente trasparenza nel comunicare agli utenti che i loro dati possono essere utilizzati per addestrare nuovi prodotti, che OpenAI può monetizzare, come il suo strumento Plugins. Inoltre, la causa sostiene che OpenAI non adotta misure adeguate per impedire ai bambini di età inferiore ai 13 anni di utilizzare i suoi strumenti, una preoccupazione che è stata sollevata in passato anche contro altre società tecnologiche come Facebook e YouTube.

Questa causa si aggiunge all’elenco in continua crescita di sfide legali affrontate dalle aziende coinvolte nello sviluppo e nella potenziale redditività della tecnologia AI.

A febbraio, Getty Images ha intentato una causa contro la start-up di intelligenza artificiale Stability AI, accusandola di utilizzare illegalmente le foto di Getty per addestrare il proprio bot generatore di immagini. Inoltre, questo mese OpenAI ha affrontato una causa per diffamazione intentata da un conduttore radiofonico in Georgia, il quale ha affermato che ChatGPT ha prodotto un testo che lo ha falsamente accusato di frode.

Sebbene OpenAI non sia l’unica azienda che utilizza dati prelevati da Internet per addestrare i propri modelli di intelligenza artificiale, lo studio legale ha scelto di prendere di mira OpenAI per il suo ruolo nel catalizzare lo sviluppo di tecnologie di intelligenza artificiale da parte dei suoi concorrenti più grandi, dopo che ChatGPT ha catturato l’immaginazione del pubblico l’anno scorso.

I nuovi regolamenti in discussione mirano a imporre una maggiore trasparenza da parte delle aziende riguardo ai dati utilizzati nei loro modelli di intelligenza artificiale. In alternativa, secondo Gardner, una causa legale potrebbe obbligare aziende come OpenAI a divulgare informazioni sui dati che hanno utilizzato.

Alcune aziende hanno cercato di impedire alle società di intelligenza artificiale di estrarre i loro dati. Ad aprile, Universal Music Group, un distributore di musica, ha chiesto ad Apple e Spotify di bloccare gli scraper, secondo il Financial Times.

Il sito di social media Reddit richiede un pagamento per accedere a contenuti aggiuntivi dopo aver limitato l’accesso ai suoi dati, citando come le grandi aziende tecnologiche abbiano per anni cancellato i commenti e le conversazioni dal suo sito. Elon Musk ha minacciato di citare in giudizio Microsoft per aver utilizzato dati di Twitter ottenuti illegalmente per addestrare la sua intelligenza artificiale. Musk sta costruendo la propria azienda di intelligenza artificiale.

Di ihal