Immagine AI

La competizione globale nell’intelligenza artificiale di avanguardia ha raggiunto un nuovo livello di tensione con l’accusa pubblica avanzata da Anthropic, sviluppatore dell’IA avanzata Claude, secondo cui tre importanti laboratori di intelligenza artificiale cinesi — DeepSeek, Moonshot AI e MiniMax — avrebbero orchestrato campagne su larga scala per estrarre indebitamente capacità dal modello Claude tramite decine di migliaia di account fraudolenti. Questa accuse, rimbalzate tramite blog ufficiali e riportate da testate di settore, descrivono un’operazione di “distillazione” su scala industriale in cui oltre 24.000 account falsi sono stati utilizzati per generare più di 16 milioni di interazioni con Claude, con l’obiettivo di trasferire le sue funzionalità nei modelli propri di questi laboratori in violazione dei termini di servizio e dei limiti di accesso geografico imposti da Anthropic.

La distillazione è una tecnica di apprendimento automatico largamente impiegata nella ricerca e nello sviluppo di modelli: un modello meno potente viene addestrato sui risultati generati da uno più avanzato per incorporare, in forma più leggera, alcune delle sue capacità. In un contesto legittimo, le organizzazioni usano la distillazione per ottimizzare i propri modelli, rendendoli più economici da eseguire pur mantenendo una buona qualità di output. Tuttavia, Anthropic sostiene che, nella fattispecie contestata, DeepSeek, Moonshot e MiniMax hanno sfruttato questa tecnica oltre i confini di un normale uso interno, impiegando un’enorme quantità di account fasulli e traffico automatizzato per estrarre e catturare funzionalità avanzate come il ragionamento agentico, l’uso di strumenti complessi e la programmazione, tutte aree in cui Claude è considerato particolarmente sofisticato. Secondo la società statunitense, l’attività è stata organizzata in modo da eludere i normali segnali di uso legittimo e violare le condizioni di accesso, poiché Claude non è ufficialmente disponibile nei mercati regolamentati in cui questi laboratori operano.

I dettagli tecnici delle campagne delineano profili di traffico estremamente ripetitivi e mirati: prompt generati in serie con variazioni sistematiche per estrarre specifiche capacità del modello target, con categorie di richieste altamente focalizzate. Anthropic ha osservato come alcuni gruppi, ad esempio, abbiano dedicato milioni di richieste a exploit di chain-of-thought, la struttura interna con cui il modello scompone problemi complessi in sequenze di ragionamento, mentre altri hanno puntato a componenti come tool use, ovvero l’uso di strumenti esterni da parte di un modello, e la capacità di generare codice o analizzare dati. Una caratteristica comune di queste operazioni consisteva nell’uso di infrastrutture di accesso proxy per distribuire richieste attraverso reti di account falsi, mimando traffico “normale” per eludere controlli automatici di abuso e controllo della qualità del servizio.

Anthropic ha indicato che il volume e la natura delle interazioni suggeriscono una chiara correlazione con identità legate alle tre aziende menzionate, basata su segnali di infrastruttura, metadati delle richieste e pattern di accesso che differivano nettamente da quelli tipici di utenti finali o sviluppatori indipendenti. Secondo la società, MiniMax avrebbe guidato la campagna più consistente, contribuendo da solo a oltre 13 milioni di interazioni, seguita da Moonshot AI con oltre 3,4 milioni. DeepSeek, pur con un numero inferiore di query totali, avrebbe focalizzato parte delle sue operazioni su estrazione di catene di pensiero e alternative di policy su tematiche sensibili alla censura, elementi che possono accelerare lo sviluppo di componenti di ragionamento in modelli rivali.

Le implicazioni di questo tipo di distillazione su larga scala vanno al di là della semplice competizione commerciale. Anthropic ha sottolineato che i modelli addestrati con dati estratti in questo modo potrebbero non conservare le salvaguardie di sicurezza e i meccanismi di controllo incorporati nei sistemi originali, potenzialmente facilitando l’emergere di modelli privi di constraint robusti contro uso improprio in applicazioni sensibili come operazioni informatiche offensive, campagne di disinformazione o sorveglianza di massa. Questo è particolarmente critico se tali modelli venissero successivamente resi open source o integrati in prodotti distribuiti in aree con normative deboli sulle tecnologie di IA.

In risposta alle accuse, Anthropic ha affermato di aver implementato sistemi di behavioral fingerprinting e altre contromisure per identificare e mitigare campagne di distillazione, oltre a sollecitare un approccio coordinato tra l’industria dell’IA, i provider di cloud e le autorità di regolamentazione per affrontare la questione. Parte della discussione in corso negli Stati Uniti riguarda anche la regolamentazione delle esportazioni di chip avanzati per l’IA, con argomentazioni secondo cui limitare l’accesso a hardware di calcolo di alto livello potrebbe ridurre la capacità di eseguire distillazioni su larga scala.

Le accuse di Anthropic si inseriscono in un più ampio contesto di rivalità tecnologica tra Stati Uniti e Cina nella corsa all’IA di frontiera, un campo in cui lo sviluppo interno e la gestione di proprietà intellettuale avanzata sono considerati fattori strategici di competitività e sicurezza nazionale. Se confermate, tali pratiche solleverebbero questioni significative non solo sul piano della protezione della proprietà intellettuale ma anche sulle dinamiche globali di sviluppo dell’IA e sulle politiche di governance per tecnologie emergenti ad alto impatto.

Di Fantasy