Immagina un’alba nella Silicon Valley, dove l’intelligenza artificiale avanza a passi da gigante ma, nel frattempo, una nube temporalesca si addensa all’orizzonte. I protagonisti sono libri—i saggi, i romanzi, le memorie—ognuno tessuto con cura dall’autore, che finiscono invece nel calderone digitale dell’AI senza che nessuno ne conosca davvero la provenienza.

Questa storia ha un nome: Anthropic, la promettente startup AI finora vista come erede di OpenAI, che ha costruito il suo chatbot Claude grazie a una enorme mole di testi provenienti da archivi pirata. Un tribunale federale ha infatti scoperto che Anthropic aveva scaricato oltre 7 milioni di libri piratati, in particolare da siti come Library Genesis e Pirate Library Mirror.

L’accusa ha portato alla nascita di una class action, guidata da tre autori americani —Andrea Bartz, Charles Graeber e Kirk Wallace Johnson—che ora rappresentano una moltitudine di scrittori danneggiati. Contrariamente al training effettuato con libri acquistati —che il giudice Alsup ha definito “fair use” per la sua natura trasformativa—, la semplice detenzione di testi pirata è rimasta illegale, provocando l’evolversi della vertenza in un caso epocale.

Per evitare un processo che avrebbe potuto decimare la startup, Anthropic ha accettato di pagare almeno 1,5 miliardi di dollari, con una cifra stimata di circa 3.000 $ per libro coinvolto, per compensare circa 500.000 opere —alcune fonti indicano che il numero potrebbe aumentare all’aumentare dei titoli identificati.

Questo accordo, che richiede il via libera di un giudice —contenuto già in esame a inizio settimana– ha già un valore simbolico e pratico altissimo: si tratta, probabilmente, del più grande risarcimento per violazione del copyright mai registrato negli Stati Uniti.

Secondo l’Authors Guild, un’organizzazione che tutela i diritti degli autori, questo verdetto mette in chiaro un messaggio potente: anche nell’alba luminosa dell’IA, nessun contenuto è gratis, soprattutto se è stato ottenuto illegalmente. Il caso si pone anche come avvertimento per altri giganti del settore—OpenAI, Meta, Microsoft e altri—che potrebbero essere nel mirino per pratiche simili.

L’accordo prevede anche la distruzione dei dati pirata utilizzati, chiudendo quella che Anthropic ha percepito come una ferita da curare rapidamente. In cambio, dunque, una soluzione pacifica ma costosa: evitare il rischio di danni ben superiori, potenzialmente devastanti per la sopravvivenza stessa dell’azienda.

Da una parte, emergono le potenzialità immense dell’IA, in grado di elaborare testi, idee e conoscenza in modi nuovi. Dall’altra, c’è un principio irrinunciabile: dietro ogni parola scritta c’è un autore che ha investito tempo, idee, sudore. Usare il suo lavoro come semplice dato da “mangiare” agli algoritmi significa violare quel patto morale e legale che sostiene la creatività.

E così, mentre l’innovazione prosegue con sorprendente velocità, questa causa segna una battuta d’arresto: una chiamata a un’etica digitale che vada oltre la mera “fair use”, che riconosca contributi, compensi ed equità. È una lezione che chi costruisce futuri intelligenti —siano aziende, legislatori o utenti consapevoli— dovrà ascoltare attentamente.

Di Fantasy