Google DeepMind ha presentato una ricerca destinata a lasciare un segno profondo nello sviluppo dei modelli di intelligenza artificiale: una nuova legge di scala chiamata ATLAS, pensata per superare uno dei limiti strutturali più discussi dell’AI moderna, cioè la difficoltà di addestrare modelli realmente efficaci su molte lingue diverse dall’inglese. Il lavoro, annunciato in occasione di ICLR 2026, affronta in modo diretto quella che per anni è stata definita la “maledizione del multilinguismo”, secondo cui le prestazioni di un modello tendono a peggiorare man mano che aumenta il numero di lingue supportate.
Per molto tempo, infatti, le leggi di scalabilità su cui si è basata l’evoluzione dei grandi modelli linguistici sono state costruite quasi esclusivamente attorno all’inglese. L’idea implicita era che aggiungere nuove lingue comportasse una dispersione inevitabile delle capacità del modello: meno dati per ciascuna lingua, più interferenze, prestazioni complessivamente inferiori. ATLAS ribalta questo presupposto e dimostra che, se il problema viene affrontato con una strategia di addestramento adeguata, il multilinguismo può diventare una risorsa anziché un ostacolo.
Il cuore dello studio è una nuova legge di scala che mette in relazione tre fattori chiave: il numero di lingue supportate dal modello, la dimensione del modello stesso e la quantità complessiva di dati di addestramento. Invece di considerare queste variabili separatamente, ATLAS le analizza in modo congiunto, mostrando come possano crescere insieme senza compromettere la qualità dei risultati. I ricercatori di DeepMind sono arrivati a queste conclusioni dopo aver condotto 774 esperimenti di addestramento, coprendo oltre 400 lingue e utilizzando modelli con dimensioni comprese tra 10 milioni e 8 miliardi di parametri. È uno sforzo sperimentale enorme, che fornisce una base empirica solida alle affermazioni teoriche.
Uno dei risultati più significativi riguarda il costo reale del multilinguismo. Secondo i dati presentati, raddoppiare il numero di lingue supportate non richiede un raddoppio proporzionale delle risorse. È sufficiente aumentare la dimensione del modello di circa 1,18 volte e la quantità di dati di addestramento di circa 1,66 volte per mantenere invariata la perdita per ciascuna lingua. Questo significa che, anche se i dati disponibili per ogni singola lingua diminuiscono, gli effetti positivi del trasferimento tra lingue compensano ampiamente questa riduzione.
Proprio il trasferimento linguistico è uno degli aspetti più affascinanti dello studio. Il team di DeepMind ha pubblicato una vera e propria “matrice di affinità linguistica”, che misura in modo quantitativo come l’apprendimento congiunto di due lingue possa migliorare o peggiorare le prestazioni. In questa matrice emergono chiaramente alcune lingue che fungono da “ponti” per l’apprendimento di molte altre. Inglese, francese e spagnolo si confermano lingue di riferimento particolarmente efficaci, ma lo studio mostra anche esempi interessanti di trasferimento tra lingue meno centrali, come norvegese e svedese oppure malese e indonesiano, che condividono radici linguistiche o sistemi di scrittura simili. Non sempre, però, il trasferimento è simmetrico: in alcuni casi una lingua beneficia molto dell’altra, mentre l’effetto inverso è minimo.
ATLAS non si limita a descrivere fenomeni teorici, ma fornisce indicazioni pratiche per chi sviluppa modelli di intelligenza artificiale. Un esempio è la cosiddetta regola del “crossover”, che aiuta a decidere se convenga perfezionare un modello multilingue esistente o addestrarne uno nuovo da zero per una lingua specifica, in base al budget computazionale disponibile. Secondo la ricerca, se l’addestramento supera una certa soglia, indicativamente tra 144 e 283 miliardi di token, partire da zero con un modello di circa 2 miliardi di parametri può garantire risultati migliori nel lungo periodo rispetto al semplice fine-tuning di un checkpoint multilingue.
Il messaggio che emerge è chiaro e ha anche una forte valenza culturale. DeepMind sottolinea che oltre la metà degli utenti di intelligenza artificiale nel mondo non parla inglese, eppure le fondamenta teoriche su cui si basano molti modelli sono ancora fortemente sbilanciate verso una sola lingua. ATLAS viene presentata come una vera e propria tabella di marcia per sviluppatori e ricercatori, uno strumento per progettare modelli che bilancino costi, prestazioni e copertura linguistica in modo più equo e razionale.
Secondo molti esperti, questo studio diventerà un punto di riferimento soprattutto per lo sviluppo di modelli specializzati in lingue non inglesi, comprese quelle con meno risorse digitali o con caratteristiche linguistiche molto diverse dall’inglese. In prospettiva, ATLAS potrebbe contribuire a ridurre il divario tecnologico tra le lingue dominanti e il resto del mondo, aprendo la strada a un’AI davvero globale, capace di comprendere e servire utenti in modo più inclusivo e accurato.
