La competizione internazionale nello sviluppo dell’intelligenza artificiale sta entrando in una fase caratterizzata non solo dall’innovazione tecnologica, ma anche dalla protezione delle capacità dei modelli avanzati. In questo contesto, OpenAI, Google e Anthropic — aziende tradizionalmente concorrenti — hanno avviato una collaborazione per contrastare la cosiddetta “model distillation” utilizzata da alcune startup cinesi per replicare le capacità dei sistemi AI più avanzati.
La distillazione dei modelli è una tecnica che consente di addestrare un modello più piccolo utilizzando le risposte generate da un sistema più potente. Questo approccio, originariamente sviluppato come metodo legittimo per ottimizzare l’efficienza dei modelli, può essere utilizzato anche per replicare indirettamente le capacità di sistemi proprietari senza accedere ai dati di addestramento originali. Le aziende statunitensi temono che tale pratica venga impiegata per creare modelli concorrenti a basso costo, capaci di riprodurre parte delle funzionalità dei sistemi più avanzati, riducendo il vantaggio competitivo acquisito con investimenti elevati in ricerca e infrastrutture.
La collaborazione tra OpenAI, Google e Anthropic si concentra sulla condivisione di informazioni e tecniche di rilevamento per individuare tentativi di distillazione non autorizzata. Le aziende utilizzano il Frontier Model Forum, un’organizzazione no-profit fondata nel 2023 insieme a Microsoft, come piattaforma di coordinamento per monitorare attività sospette e migliorare i meccanismi di difesa. L’obiettivo è identificare pattern di utilizzo anomali, come interrogazioni massicce e sistematiche dei modelli, che potrebbero indicare tentativi di estrazione delle capacità cognitive del sistema.
La partnership nasce anche da una crescente preoccupazione geopolitica legata alla competizione tecnologica globale. Le aziende statunitensi temono che modelli distillati possano essere commercializzati a costi inferiori, sottraendo quote di mercato e riducendo il ritorno sugli investimenti. Inoltre, esiste il timore che sistemi derivati possano essere distribuiti senza le stesse misure di sicurezza integrate nei modelli originali, aumentando i rischi legati all’uso improprio dell’intelligenza artificiale. Alcune analisi sottolineano che modelli ottenuti tramite distillazione illegittima potrebbero non includere salvaguardie fondamentali, facilitando applicazioni potenzialmente pericolose.
La questione è emersa con maggiore intensità dopo segnalazioni secondo cui alcune aziende cinesi avrebbero tentato di replicare modelli occidentali attraverso interrogazioni automatizzate. In un caso citato nelle discussioni pubbliche, sarebbero stati creati migliaia di account per generare milioni di interazioni con un modello AI, con l’obiettivo di raccogliere dati utili all’addestramento di sistemi concorrenti. Questo tipo di attività viene interpretato come un tentativo sistematico di estrazione delle capacità dei modelli, piuttosto che come semplice utilizzo commerciale delle API.
Il contesto competitivo è reso ancora più complesso dalla crescita rapida delle startup AI cinesi, spesso indicate come nuove protagoniste della corsa globale. Diverse aziende emergenti hanno sviluppato modelli ad alte prestazioni con costi di addestramento significativamente inferiori rispetto ai sistemi occidentali, aumentando la pressione competitiva. Questo scenario ha alimentato il timore che tecniche di distillazione possano accelerare ulteriormente lo sviluppo di modelli concorrenti, riducendo il divario tecnologico.
La distillazione può avvenire interrogando ripetutamente un modello avanzato con un ampio set di prompt e utilizzando le risposte per addestrare un modello “studente”. Attraverso questo processo, il modello risultante apprende pattern di ragionamento e strutture linguistiche simili a quelle del sistema originale. Sebbene il risultato non sia identico al modello di partenza, può raggiungere livelli di performance sufficienti per competere sul mercato, soprattutto se combinato con ottimizzazioni architetturali e costi di inferenza inferiori.
La collaborazione tra OpenAI, Google e Anthropic è una risposta coordinata a questa dinamica. Le aziende stanno sviluppando strumenti per identificare comportamenti sospetti, limitare l’estrazione massiva di output e rafforzare i controlli sull’accesso alle API.
