C’è un momento in cui il mondo dell’intelligenza artificiale incontra un bivio etico e legale: è quello in cui tensioni tra creatività umana e automazione digitale vengono poste sotto la lente del diritto. Ed è esattamente il caso della recente intesa raggiunta tra Anthropic, la società AI che ha sviluppato Claude, e un gruppo di autori americani, cui viene riconosciuto di aver subito violazione del proprio copyright durante l’addestramento del modello.

La notizia arriva il 27 agosto 2025, con la conferma che la causa collettiva, intentata dagli autori che hanno denunciato l’uso non autorizzato di milioni di loro opere, si è conclusa con un accordo extragiudiziale.

La causa, intentata da scrittori come Andrea Wartz, Charles Graber e Kirk Wallace Johnson, era motivata da un atto grave: secondo i ricorrenti, Anthropic avrebbe scaricato da siti web contenuti pirata per addestrare Claude, senza aver chiesto il permesso e senza aver corrisposto alcun compenso.

Un passaggio particolarmente delicato è emerso durante il processo: come ha osservato il giudice William Alsup della Corte Federale di San Francisco, a giugno era stata evidenziata la possibilità che Anthropic avesse utilizzato fino a 7 milioni di libri ottenuti illegalmente. Un comportamento potenzialmente sanzionabile con risarcimenti fino a 150.000 USD per opera, in caso di riconoscimento della violazione consapevole del copyright.

Il fatto che le parti abbiano raggiunto un accordo prima che il giudizio proseguisse indica, implicitamente, una forma di riconoscimento da parte di Anthropic dell’importanza delle rivendicazioni degli autori. Anche se i termini economici dell’accordo non sono stati resi noti, il legale che ha assistito gli autori ha già definito l’intesa una “storica” – un traguardo destinato a diventare un precedente rilevante nel settore delle AI.

Secondo la decisione del giudice, alcuni degli usi fatti da Anthropic rientrano nel concetto di “fair use” – come nel caso di materiale acquisito tramite l’acquisto di libri usati e scansionati, utilizzati in contesti trasformativi e innovativi. Ma è altrettanto vero che l’archiviazione centralizzata di milioni di opere pirata è stata giudicata “un chiaro caso di violazione del copyright”.

La Corte ha anche stabilito una scadenza: entro il 5 settembre 2025, le parti devono ottenere una approvazione preliminare dell’accordo da parte del tribunale.

La portata è immediata: è il primo caso significativo di accordo extragiudiziale su un tema così delicato nell’ambito dell’intelligenza artificiale. E il suo significato è chiaro: anche le grandi aziende AI devono fare i conti con il diritto d’autore, e non possono più ignorare i confini del fair use o il semplice rispetto per la proprietà intellettuale.

La professoressa Shubha Ghosh, della Syracuse University Law School, sottolinea che sarà di fondamentale importanza conoscere i dettagli dell’accordo e studiarne le evoluzioni: soltanto così si potrà comprendere appieno l’impatto di questo momento sul futuro dei modelli AI e delle pratiche collettive in tema di copyright.

Immagina un domani in cui i creativi sappiano di avere voce e tutela, anche quando la loro opera entra nei circuiti invisibili dell’apprendimento automatico. Questo accordo può rappresentare non solo un riconoscimento simbolico, ma anche un deterrente per pratiche non trasparenti nel training delle AI.

Gli autori, partendo da una posizione di sfavore, hanno ottenuto qualcosa che va oltre i numeri: hanno portato all’attenzione dell’opinione pubblica e delle istituzioni un tema centrale. Anthropic, pur senza smentire, ha preferito chiudere la controversia con un accordo piuttosto che rischiare un verdetto che avrebbe messo in pericolo i propri asset intellettuali e reputazione.

Di Fantasy