La Cina non solo sta colmando il divario tecnologico, ma lo sta facendo scegliendo una strada che fino a poco tempo fa sembrava marginale rispetto ai modelli chiusi di frontiera: l’open source. La presentazione a poche ore di distanza dei nuovi modelli di punta di ZhipuAI e Minimax non è stata una semplice coincidenza, ma il segnale evidente di una competizione strategica che intreccia innovazione tecnologica, posizionamento globale e obiettivi finanziari legati alla futura quotazione alla Borsa di Hong Kong.
ZhipuAI – nota anche come Jifu – ha annunciato il suo nuovo modello linguistico di nuova generazione, GLM-4.7. L’enfasi non è stata posta soltanto sulle dimensioni o sull’efficienza del modello, ma soprattutto sulle sue capacità di programmazione, un’area sempre più centrale nella competizione tra LLM. Secondo quanto comunicato dall’azienda, GLM-4.7 ha ottenuto risultati di primo piano in benchmark come TauBench e LiveCodeBench, posizionandosi ai vertici delle valutazioni e riducendo sensibilmente il distacco con i principali modelli occidentali, inclusi quelli sviluppati da OpenAI e Anthropic. In alcuni test, il modello cinese avrebbe addirittura superato i concorrenti statunitensi, almeno in specifiche aree legate alla programmazione.
ZhipuAI ha sottolineato come GLM-4.7 rappresenti un netto salto in avanti rispetto alla generazione precedente, con miglioramenti a due cifre nella codifica multilingue basata su agenti, nelle attività che simulano l’uso del terminale, nell’integrazione degli strumenti e nelle capacità di ragionamento complesso. Un’attenzione particolare è stata riservata al cosiddetto “vibe coding”, un approccio sempre più diffuso che punta a generare non solo codice funzionante, ma anche interfacce curate, layout completi e presentazioni visivamente coerenti. In questo ambito, l’azienda ha parlato di progressi significativi nella qualità dell’esperienza utente, un aspetto che va oltre la pura correttezza sintattica del codice e tocca la sfera del prodotto finale.
Un elemento chiave della strategia di ZhipuAI è stata la decisione di rendere pubblici i pesi del modello GLM-4.7, distribuendoli come open source attraverso Hugging Face. Questa scelta non è soltanto tecnica, ma profondamente politica e strategica: significa invitare la comunità globale degli sviluppatori a sperimentare, adattare e integrare il modello, accelerandone la diffusione e rafforzandone l’ecosistema. In un momento in cui molti modelli di frontiera restano chiusi e accessibili solo via API, l’open source diventa uno strumento di legittimazione e di attrazione, soprattutto per il mercato enterprise.
A poche ore di distanza dall’annuncio di ZhipuAI, Minimax ha risposto presentando il suo nuovo modello M2.1, un aggiornamento rilevante che arriva sorprendentemente solo due mesi dopo il rilascio di M2. Anche in questo caso, il focus è stato posto sulle capacità di programmazione, con particolare attenzione alla gestione simultanea di più linguaggi come Java, Rust e Golang. Questa caratteristica è sempre più richiesta in contesti reali di sviluppo software, dove gli ambienti sono eterogenei e l’integrazione tra stack diversi è la norma, non l’eccezione.
Minimax ha scelto di dimostrare la competitività del suo modello attraverso un benchmark proprietario, VIBE, progettato per valutare non solo la correttezza dell’esecuzione ma anche la qualità visiva e la logica di interazione. Le aree analizzate spaziano dal web allo sviluppo mobile su Android e iOS, fino alla simulazione e al backend. Con un punteggio medio di 88,6 e risultati prossimi ai 90 punti nelle categorie web e Android, M2.1 viene presentato come un modello particolarmente adatto a contesti pratici, capace di seguire istruzioni complesse e di mantenere coerenza operativa in scenari reali.
A differenza di GLM-4.7, al momento M2.1 è disponibile principalmente tramite API, ma Minimax ha annunciato che i pesi del modello verranno rilasciati pubblicamente nel corso della settimana. Anche qui emerge una convergenza strategica verso l’open source, inteso non solo come scelta ideologica, ma come leva competitiva in un mercato sempre più attento alla trasparenza, alla personalizzazione e al controllo dei costi.
Entrambi i modelli, GLM-4.7 e M2.1, restano complessivamente al di sotto di Claude Opus 4.5, sviluppato da Anthropic, ma in diversi parametri si avvicinano o superano Claude Sonnet 4.5. Questo dato è particolarmente significativo perché segnala come il divario tra modelli open source cinesi e modelli proprietari statunitensi di fascia alta si stia rapidamente riducendo. Dopo l’emergere di soluzioni come DeepSeek e i modelli di Alibaba e Moonshot AI, l’ecosistema cinese sta dimostrando una capacità crescente di competere a livello mondiale, non solo in termini di scala, ma anche di qualità e specializzazione.
Sullo sfondo di questa competizione tecnologica si staglia chiaramente il tema della quotazione alla Borsa di Hong Kong. ZhipuAI, fondata nel 2019 da professori dell’Università di Tsinghua e sostenuta da Alibaba, punta a raccogliere circa 300 milioni di dollari con un’IPO imminente. Minimax, anch’essa partecipata da Alibaba, starebbe cercando finanziamenti fino a 700 milioni di dollari. In entrambi i casi, la presentazione di modelli di nuova generazione appare come una mossa studiata per dimostrare solidità tecnologica e visione di lungo periodo agli investitori, rafforzando la narrativa di aziende non solo promettenti, ma già competitive su scala globale.
I proventi delle IPO, secondo quanto dichiarato, verranno destinati in larga parte alla ricerca e sviluppo, con investimenti in semiconduttori per l’intelligenza artificiale e data center. Questo dettaglio è tutt’altro che secondario, perché indica la volontà di controllare verticalmente la catena del valore dell’AI, riducendo la dipendenza da fornitori esterni e rafforzando la sovranità tecnologica.
