Nelle ultime settimane, il fulcro dell’attenzione nel panorama dell’intelligenza artificiale si è spostato su una nuova entrata: Ant Group, gigante fintech cinese strettamente legato ad Alibaba, ha rivelato un modello linguistico “ultra-ampio” chiamato Ling-1T, dotato di oltre un trilione di parametri. Si tratta del suo secondo modello su scala simile, e l’azienda lo rende parte di una strategia più ampia per avanzare verso un’IA sempre più inclusiva, potente e utilizzabile in vari domini.
Ling-1T è stato reso open source e collocato come modello “non thinking” (ossia con profilo generalista) nella famiglia Ling (o BaiLing) di Ant, che si articola su tre linee principali: la serie Ling per modelli non ragionanti, la serie Ring per modelli “thinking” e la serie Ming (multimodale) per gestire più tipi di dati, come testo, immagini, audio e video. Con questo rilascio, Ant dichiara di aver raggiunto un equilibrio importante tra prestazioni elevate, efficienza di inferenza e ragionamento sofisticato.
Uno degli aspetti che viene enfatizzato dagli annunci ufficiali è l’adozione di un’architettura Mixture-of-Experts (MoE), che attiva solo una porzione dei parametri (circa 50 miliardi su 1 trilione) per ogni token elaborato. Questo meccanismo consente di ridurre i costi computazionali, contenere l’uso della memoria e migliorare la scalabilità, mantenendo al contempo la capacità di trattare grandi modelli. Associato all’impiego della precisione FP8 nei passaggi di apprendimento, Ant afferma di aver ottenuto una velocità superiore del 15 % rispetto ad approcci tradizionali, insieme a una migliore efficienza della memoria (ossia minor uso di spazio per rappresentare lo stato intermedio del modello) — caratteristiche preziose quando si scala oltre la soglia del trilione di parametri.
In termini di prestazioni valutate su benchmark complessi, Ling-1T viene presentato come capace di superare modelli contemporanei come DeepSeek-V3.1-Terminus, Moonshot AI Kimi-K2-0905, GPT-5-Main (OpenAI) e Gemini-2.5-Pro (Google) nei settori della generazione di codice, del ragionamento logico e della matematica competitiva. Per esempio, nel test AIME 2025 (un benchmark di matematica altamente sfidante), Ling-1T ha raggiunto un’accuratezza del 70,42 %, un risultato che Ant usa come carta forte per dimostrare la sua competitività anche rispetto ai modelli proprietari migliori del settore.
Questi numeri, però, meritano un’analisi cauta. Il fatto che un modello superi altri modelli su certificati benchmark è un segnale importante, ma non garantisce che riesca a dominare in sistemi reali con latenza, vincoli di memoria, rumorosità dei dati, casi margini, e integrazioni con logiche di dominio. Le metriche di laboratorio sono utili per misurare gli ordini di grandezza e le traiettorie di progresso, ma restano limitate rispetto alle sfide operative.
Un altro elemento da considerare è la strategia a lungo termine di Ant: attraverso la serie Ling, l’azienda intende perseguire un’IA che sia accessibile e utile per scenari finanziari, sociali, di servizio e industriali. Il rilascio open source del modello segnala anche una volontà di partecipazione collaborativa, un modo per costruire ecosistemi attorno alla tecnologia piuttosto che custodirla come arsenale esclusivo. In questo senso, Ling-1T e il modello Ring-1T (preview) possono essere visti come elementi di un progetto più ampio di diffusione dell’IA “nazionale” o “continentale” (per la Cina).