L’industria dell’Intelligenza Artificiale Generativa è stata a lungo dominata da un’unica, inequivocabile massima: la potenza risiede nelle dimensioni. Per ottenere capacità di ragionamento e prestazioni di alto livello, i modelli dovevano necessariamente crescere fino a raggiungere centinaia di miliardi o persino trilioni di parametri, con un costo di addestramento che si misurava in milioni di dollari. Tuttavia, in un’ennesima dimostrazione della rapidità con cui il panorama tecnologico cinese continua a ridefinire i confini dell’innovazione, l’AI Division di Weibo ha recentemente sfidato questo paradigma, rilasciando il suo modello open-source denominato VibeThinker-1.5B. Questo modello non solo si distingue per la sua estrema compattezza, vantando appena 1,5 miliardi di parametri, ma ha anche compiuto l’impresa notevole di superare colossi molto più grandi in compiti di ragionamento critico, come il suo rivale, il mastodontico DeepSeek R1.
VibeThinker-1.5B rappresenta un cambio di rotta epocale, dimostrando che l’efficienza ingegneristica e l’innovazione metodologica possono superare la pura e semplice scala di calcolo. Per contestualizzare il suo successo, basti pensare che DeepSeek R1, il modello che VibeThinker ha superato in diverse importanti benchmark, conta oltre 400 volte i suoi parametri. Laddove la creazione di giganti dell’IA richiede investimenti stellari, il costo di post-training di VibeThinker-1.5B è stato incredibilmente contenuto, attestandosi a meno di ottomila dollari. Questa disparità tra costo e prestazione ridefinisce la frontiera dell’efficienza nell’IA, rendendo la tecnologia di ragionamento di punta accessibile a un bacino molto più ampio di ricercatori e aziende.
Il segreto di questa performance sbalorditiva non risiede in un’espansione dei parametri, ma in un approccio di addestramento profondamente innovativo, che Weibo ha battezzato “Spectrum-to-Signal Principle” (SSP). Questa metodologia, incentrata sulla diversità come principio centrale, si articola in due fasi distinte ma complementari. Inizialmente, durante la fase di Supervised Fine-Tuning (SFT), il modello viene incoraggiato a esplorare una vasta gamma di potenziali soluzioni, ampliando il suo spettro di ipotesi. Successivamente, attraverso il Reinforcement Learning (RL) e in particolare un framework chiamato MaxEnt-Guided Policy Optimization (MGPO), il sistema impara a distinguere il “rumore” dal “segnale”, amplificando e rafforzando selettivamente le sequenze di ragionamento che conducono alla risposta corretta.
I risultati ottenuti da VibeThinker-1.5B su benchmark matematici complessi e sfidanti sono la prova tangibile del successo di questa strategia. Su test di matematica competitiva come AIME24, AIME25 e HMMT25, il modello di Weibo ha sistematicamente registrato punteggi superiori a quelli del ben più grande DeepSeek R1. Per esempio, su AIME25 ha raggiunto il 74.4% contro il 70.0% del rivale, un margine significativo che non solo lo colloca al vertice della sua categoria, quella dei modelli con meno di 3 miliardi di parametri, ma lo pone anche in diretta competizione con modelli di dimensioni intermedie e persino con alcuni sistemi a sorgente chiusa.
VibeThinker-1.5B si concentra in modo specifico sul miglioramento delle capacità di ragionamento e di coding, aree in cui l’efficienza logica è prioritaria rispetto alla mera conoscenza enciclopedica. Sebbene possa non essere stato concepito come un chatbot generalista in grado di gestire conversazioni quotidiane, le sue prestazioni nei compiti di logica e programmazione sono eccezionali. Questo successo non è soltanto un trionfo ingegneristico per Weibo, ma ha implicazioni di vasta portata per l’intero settore dell’IA open-source. Esso dimostra in modo inequivocabile che i progressi fondamentali non devono essere monopolizzati da entità commerciali con budget illimitati, ma possono essere guidati da modelli agili e a basso costo. VibeThinker-1.5B non è solo un modello promettente; è la dimostrazione pratica che il futuro dell’Intelligenza Artificiale sarà definito non solo dalla potenza bruta, ma anche, e forse soprattutto, dall’intelligenza del suo design.
