Immagine AI

Nel settore dell’intelligenza artificiale, per lungo tempo ha dominato il paradigma secondo cui “più grande è meglio”. La corsa al trilione di parametri è sembrata per mesi l’unica via per raggiungere prestazioni d’eccellenza nel ragionamento logico e nella risoluzione di problemi complessi. Tuttavia, la startup cinese Stepfun ha recentemente scosso questa convinzione presentando Step 3.5 Flash, un modello che dimostra come un’architettura intelligente e “leggera” possa superare sistemi significativamente più imponenti in termini di velocità, precisione e capacità operativa. Nonostante le dimensioni ridotte rispetto a colossi come Kimi K2.5 o DeepSeek-V3.2, il nuovo arrivato di casa Stepfun si è posizionato ai vertici dei principali benchmark globali, offrendo una risposta concreta alla necessità di strumenti che siano non solo potenti, ma anche economicamente sostenibili.

Il segreto di questo successo risiede in una scelta architettonica sofisticata nota come Mixture of Experts (MoE) sparsa. Sebbene il modello conti complessivamente 196 miliardi di parametri, la sua struttura è progettata per attivarne solo una minima frazione — circa 11 miliardi — per ogni singolo elemento di informazione elaborato. Questo approccio permette al sistema di mantenere un’altissima densità di intelligenza senza pagare il prezzo, in termini di latenza e costi energetici, dell’attivazione dell’intera rete neurale. È un po’ come avere a disposizione un’intera biblioteca di specialisti, ma consultare solo l’esperto specifico necessario per la domanda del momento: il risultato è un’efficienza straordinaria che consente di generare fino a 350 token al secondo, una velocità che trasforma radicalmente l’esperienza d’uso nelle attività di programmazione e analisi dati.

L’obiettivo dichiarato da Stepfun non è però solo la velocità fine a se stessa, ma la creazione di quello che definiscono un “agente di intelligenza artificiale” completo. Mentre molti modelli attuali si limitano al cosiddetto “vibe coding” — ovvero generare codice basandosi su suggerimenti intuitivi ma spesso frammentari — Step 3.5 Flash è progettato per agire in modo autonomo e strutturato. Il modello è in grado di scomporre una richiesta complessa in passaggi logici, selezionare gli strumenti digitali necessari e portarli a termine dall’inizio alla fine. Questa capacità è supportata da una finestra di contesto eccezionale di 256.000 token, che permette al sistema di “leggere” e comprendere interi database o codici sorgente vastissimi senza perdere il filo del discorso, garantendo coerenza anche in compiti di lunga durata.

Un altro elemento che distingue Step 3.5 Flash è la sua natura aperta e la compatibilità hardware estesa. La decisione di rilasciare il modello gratuitamente su GitHub e di ottimizzarlo per i chip dei principali produttori cinesi, come Huawei e MetaX, apre la strada a un’adozione di massa sia nelle grandi imprese che tra i singoli sviluppatori. Potendo essere eseguito localmente su dispositivi consumer di fascia alta, il modello offre una soluzione preziosa per chi mette la privacy dei dati al primo posto, evitando di dover inviare informazioni sensibili a server remoti. In un mercato che si sta saturando di modelli sempre più pesanti e difficili da gestire, Stepfun propone una visione alternativa: un’intelligenza agile, specializzata e pronta all’uso, capace di competere direttamente con i giganti della Silicon Valley come Gemini 3 Pro o GPT-5.2 High.

Di Fantasy