Un caso recente riguarda il modello Mythos sviluppato da Anthropic, la cui diffusione è stata deliberatamente limitata non solo per motivi di sicurezza, ma anche per prevenire la replica delle capacità tramite tecniche di distillazione. Questa decisione evidenzia un cambiamento nel modo in cui i fornitori di AI gestiscono la protezione del vantaggio tecnologico, introducendo una logica di accesso selettivo invece della pubblicazione generalizzata.
Secondo le informazioni disponibili, Anthropic ha scelto di non rendere Mythos disponibile al pubblico, nonostante il modello sia in grado di individuare vulnerabilità software su scala globale. La motivazione ufficiale riguarda il rischio che la capacità di analisi delle vulnerabilità fosse “eccessivamente potente” per un rilascio aperto, con possibili implicazioni per la sicurezza informatica. Tuttavia, il sistema è stato comunque fornito in forma limitata a grandi organizzazioni, tra cui istituzioni finanziarie e provider cloud, attraverso accordi selettivi.
La decisione ha suscitato interpretazioni che vanno oltre la sola sicurezza. Alcuni osservatori del settore hanno sottolineato che la limitazione dell’accesso potrebbe rappresentare una strategia per impedire la distillazione del modello. La distillazione è una tecnica con cui modelli più piccoli vengono addestrati utilizzando le risposte di un modello avanzato, permettendo di replicarne in parte le capacità con costi computazionali inferiori. Questa pratica, se applicata a sistemi di frontiera, può ridurre rapidamente il vantaggio competitivo delle aziende che investono nello sviluppo di modelli di grandi dimensioni.
L’accesso selettivo consente quindi di controllare il flusso delle informazioni generate dal modello, limitando la possibilità che i risultati vengano utilizzati come dataset implicito per l’addestramento di sistemi concorrenti. In questo scenario, la distribuzione controllata diventa un meccanismo di protezione tecnologica, analogo alla gestione proprietaria del codice sorgente nel software tradizionale. L’obiettivo è mantenere il vantaggio competitivo più a lungo, riducendo la velocità con cui le innovazioni possono essere replicate da altri attori del mercato.
Un ulteriore elemento evidenziato riguarda il fabbisogno computazionale del modello. Alcune analisi suggeriscono che Mythos richieda risorse di calcolo molto elevate, rendendo complesso un rilascio su larga scala. La distribuzione selettiva permette di ottimizzare l’utilizzo delle infrastrutture e di garantire prestazioni stabili a un numero limitato di clienti enterprise. Questa motivazione tecnica si combina quindi con quella strategica, rafforzando la scelta di limitare l’accesso.
La gestione controllata del rilascio produce anche effetti sul modello di business. Fornendo il sistema solo a clienti selezionati, le aziende possono costruire relazioni commerciali più strette e sviluppare servizi premium basati su tecnologie esclusive. Questo approccio favorisce una struttura di mercato in cui i modelli più avanzati restano disponibili principalmente per grandi organizzazioni, mentre le versioni generaliste vengono rilasciate in seguito o con capacità ridotte.
Il caso Mythos si inserisce in una tendenza più ampia, in cui i principali sviluppatori di AI stanno rafforzando le misure contro la copia non autorizzata delle capacità dei modelli. Alcune aziende hanno già iniziato a monitorare e contrastare attivamente tentativi di replicazione tramite distillazione, collaborando anche tra loro per definire pratiche comuni. Questo scenario suggerisce che la competizione nel settore dell’AI si stia spostando dal solo miglioramento delle prestazioni alla protezione del know-how e delle architetture proprietarie.
