L’intelligenza artificiale sta vivendo una rapida evoluzione verso la decentralizzazione, dove la capacità di elaborazione si sposta dai grandi data center direttamente nelle mani dell’utente. Liquid AI, azienda pioniera nello sviluppo di Small Language Models (SLM), ha segnato un punto di svolta in questa direzione presentando LFM2.5. Si tratta di una nuova generazione di modelli di base compatti, progettati specificamente per operare in ambienti edge e on-device. La particolarità di questa architettura risiede nella sua capacità di offrire prestazioni che tipicamente appartengono a modelli molto più grandi, mantenendo però un’efficienza nei consumi e nella memoria che ne permette l’esecuzione fluida su processori per smartphone e computer portatili, sia su unità CPU che NPU.
Il salto tecnologico rispetto alla generazione precedente è impressionante. Liquid AI ha ampliato massicciamente il set di dati utilizzato per l’addestramento, passando da 10 a ben 28 trilioni di token. Questo sforzo, combinato con una pipeline di post-addestramento basata sull’apprendimento per rinforzo, ha permesso di superare i limiti strutturali che solitamente affliggono i modelli con circa un miliardo di parametri. Il risultato è una famiglia di modelli diversificata, rilasciata in formato open weight su piattaforme come HuggingFace, che spazia dal linguaggio puro alla visione artificiale, fino all’elaborazione audio nativa.
Entrando nel dettaglio della serie, il cuore pulsante è rappresentato dal modello LFM2.5-1.2B-Base, un punto di partenza ideale per gli sviluppatori che desiderano personalizzare l’intelligenza artificiale per domini specifici o addestrarla su dati proprietari aziendali. A questo si affianca la versione Instruct, ottimizzata per comprendere ed eseguire ordini complessi. Nei test di riferimento più severi del settore, come MMLU Pro e GPQA, questo piccolo gigante ha superato concorrenti agguerriti come Llama-3.2-1B di Meta e Gemma-3-1B di Google. La sua superiorità è emersa soprattutto nella capacità di seguire istruzioni multi-step e nell’abilità di utilizzare strumenti esterni in autonomia, posizionandolo come il leader indiscusso della sua classe dimensionale.
Liquid AI non si è fermata al solo testo. La serie include LFM2.5-VL, un modello di visione artificiale da 1.6 miliardi di parametri che eccelle nella comprensione di documenti, nella lettura di interfacce utente e nell’analisi di sequenze di immagini multiple. La sua natura multilingue gli permette di interpretare prompt visivi in lingue diverse, tra cui cinese, coreano e arabo, rendendolo uno strumento globale per l’automazione in tempo reale. Ancora più innovativo è il modello Audio-1.5B, che gestisce il parlato e il testo in modo nativo. A differenza dei sistemi tradizionali che collegano tra loro diversi programmi per ascoltare, capire e parlare, questo modello elabora tutto in un unico passaggio, riducendo drasticamente i tempi di attesa e mantenendo una qualità del suono altissima anche su hardware limitato grazie a tecniche avanzate di compressione.
L’annuncio di questa famiglia di modelli non rappresenta solo un progresso tecnico, ma una visione del futuro in cui gli agenti intelligenti saranno integrati in ogni oggetto che ci circonda. Progettando sistemi capaci di ragionare localmente con una precisione senza precedenti e costi computazionali ridotti, Liquid AI sta aprendo la strada a una nuova era di dispositivi “edge” che non dipendono più costantemente dalla connessione internet per essere davvero intelligenti. È un passo decisivo verso la creazione di un’intelligenza artificiale ubiqua, sicura e incredibilmente veloce.
