Una delle novità più interessanti arriva dalla Cina e porta la firma di Ubiquant, uno dei più grandi gestori di fondi quantitativi del Paese. L’azienda ha presentato una nuova serie di modelli linguistici di grandi dimensioni, pensati specificamente per la generazione di codice e l’ingegneria del software, proponendo un approccio che va oltre la tradizionale “comprensione statica del codice” per concentrarsi sull’apprendimento del flusso, dell’evoluzione e della logica che caratterizzano il lavoro reale degli sviluppatori.
Il rilascio, avvenuto il 4 gennaio, riguarda la serie iQuest-Coder-V1, un insieme di modelli open source che, secondo Ubiquant, riescono a eguagliare o addirittura superare in alcuni benchmark modelli proprietari di fascia altissima come GPT‑5.1 di OpenAI e Claude Sonnet 4.5 di Anthropic. La serie comprende versioni da 7, 14 e 40 miliardi di parametri, dimensioni significativamente più contenute rispetto ai modelli concorrenti, ma accompagnate da risultati che hanno attirato l’attenzione della comunità tecnica internazionale.
Uno degli elementi centrali della proposta di Ubiquant è il metodo di apprendimento. Mentre molti modelli di coding si concentrano su frammenti di codice isolati, completamenti automatici o singole funzioni, iQuest-Coder-V1 è stato progettato per seguire il processo reale di sviluppo del software. Il modello impara come il codice viene scritto, modificato, ampliato e corretto nel tempo, osservando il modo in cui la logica evolve all’interno di un progetto. L’obiettivo dichiarato non è creare un assistente che “ripete” il codice, ma un sistema che cresce insieme al processo di sviluppo e ne comprende le motivazioni profonde.
Anche il training riflette questa filosofia progressiva. Nelle prime fasi, il modello costruisce le proprie basi attingendo a informazioni fondamentali sul codice, a grandi repository open source e a dati di completamento automatico. Successivamente, vengono introdotte capacità di ragionamento più avanzate e meccanismi di tipo agentico, che consentono al modello di affrontare compiti in modo sempre più autonomo. In questa prospettiva, l’intelligenza del codice non è vista come una funzione statica, ma come una competenza che si sviluppa gradualmente, in modo simile all’apprendimento umano.
Un passaggio chiave riguarda la comprensione del contesto a lungo termine. Durante la fase intermedia di addestramento, iQuest-Coder-V1 viene esposto a sequenze fino a 32.000 token, addestrandosi su flussi di inferenza e workflow complessi. In una fase successiva, la lunghezza del contesto viene estesa fino a 128.000 token, abbastanza da includere un intero repository di codice. Questo permette al modello di andare oltre la lettura di singoli file o funzioni, arrivando a cogliere la struttura complessiva di un progetto e le relazioni logiche tra le sue diverse parti, un aspetto cruciale per l’ingegneria del software su larga scala.
La fase finale di post-training segue due direzioni complementari. Da un lato, il cosiddetto “percorso del pensiero” utilizza tecniche di apprendimento per rinforzo per rafforzare la capacità del modello di risolvere problemi complessi passo dopo passo e sostenere ragionamenti di lunga durata. Dall’altro, il “percorso dell’istruzione” è orientato a migliorare le funzionalità di assistenza alla codifica più generali, rendendo il modello facilmente utilizzabile nei contesti di sviluppo quotidiani. Questa doppia strategia consente a iQuest-Coder-V1 di mantenere prestazioni elevate sia nei compiti più teorici sia nelle applicazioni pratiche.
Ubiquant ha prestato particolare attenzione anche all’efficienza di distribuzione. La variante iQuest-Coder-V1-Loop introduce una struttura ricorrente pensata per preservare le capacità di inferenza senza aumentare in modo indiscriminato le dimensioni del modello. È una scelta che punta a bilanciare prestazioni e costi computazionali, consentendo un utilizzo continuativo del modello anche in ambienti con risorse limitate, un aspetto sempre più rilevante per le aziende che vogliono integrare l’AI nei propri flussi di sviluppo.
I risultati nei benchmark spiegano perché questo rilascio abbia fatto parlare di sé. Il modello di punta, iQuest-Coder-V1-40B-Loop-Instruct, ha raggiunto il 76,2% su SWE-Bench Verified, una valutazione che misura la reale capacità di risolvere problemi di ingegneria del software, collocandosi praticamente allo stesso livello di Claude Sonnet 4.5 e GPT-5.1. Su BigCodeBench, un benchmark progettato per evitare la contaminazione dei dati, ha superato sia GPT-5.1 sia Gemini 3 Pro Preview di Google. Anche su LiveCodeBench, basato su valutazioni temporali, il modello ha mostrato prestazioni nettamente superiori rispetto a concorrenti di dimensioni maggiori.
Il contesto in cui nasce questo progetto è altrettanto significativo. In Cina, i gestori di fondi quantitativi stanno investendo massicciamente nell’intelligenza artificiale, soprattutto dopo il successo di DeepSeek, sviluppato da Highflyer Quant. Sull’onda di quel risultato, diverse realtà finanziarie hanno fondato laboratori di ricerca AI dedicati, trasformando il settore dei fondi quantitativi in uno dei motori principali dello sviluppo di LLM nel Paese.
Ubiquant, co-fondata nel 2012 da Wang Chen e Yao Qichong, entrambi con un passato presso Millennium, è oggi una delle maggiori società di investimento quantitativo in Cina. Entro la fine del 2025, il patrimonio gestito dovrebbe superare i 70 miliardi di yuan, ponendola in diretta competizione con Highflyer Quant. L’azienda ha iniziato presto a integrare l’intelligenza artificiale nelle proprie strategie di investimento, istituendo già nel 2019 un team dedicato e un laboratorio di ricerca AI, oltre a un cluster di supercalcolo chiamato Beiming.
Il rilascio open source di iQuest-Coder-V1 su Hugging Face e GitHub rappresenta quindi non solo un passo tecnologico, ma anche una dichiarazione strategica. Ubiquant dimostra che un attore proveniente dal mondo della finanza quantitativa può competere con i grandi laboratori di ricerca globali sul terreno dell’AI applicata al software. Allo stesso tempo, suggerisce che il futuro dei modelli di codice potrebbe non dipendere solo dall’aumento delle dimensioni, ma dalla capacità di comprendere in profondità come il codice nasce, cresce e si trasforma nel tempo.
