Mentre gran parte dell’attenzione globale si concentra sui colossi dell’Intelligenza Artificiale e sui loro modelli di linguaggio di dimensioni ciclopiche (Large Language Models o LLM), sta emergendo silenziosamente una rivoluzione dall’altra estremità dello spettro: quella dei modelli di linguaggio piccoli (Small Language Models o SLM) progettati per l’efficienza, la velocità e la sicurezza aziendale. Al centro di questo movimento c’è Liquid AI, uno spin-off del prestigioso MIT, che ha recentemente rilasciato un blueprint, una vera e propria mappa concettuale e tecnologica, per la creazione di SLM di livello enterprise destinati a operare direttamente sul dispositivo.
La sfida che Liquid AI intende superare è cruciale per l’adozione diffusa dell’IA nelle aziende. I modelli generalisti enormi, pur essendo potenti, presentano infatti costi di inferenza esorbitanti, latenza inaccettabile per le applicazioni in tempo reale e dipendenza intrinseca dall’infrastruttura cloud, sollevando significative preoccupazioni in termini di privacy dei dati. Il blueprint offerto da Liquid AI promette di sbloccare il potenziale dell’IA in contesti come l’Edge Computing, l’automotive, i dispositivi indossabili e la telefonia mobile, dove ogni millisecondo e ogni joule di energia contano.
L’innovazione non risiede solo nelle dimensioni ridotte, ma nell’architettura fondamentale che li sostiene. Liquid AI si è allontanata dal paradigma dominante dei Transformer su cui si basano i modelli GPT, introducendo le Liquid Neural Networks (LNN). Ispirate ai sistemi neurali biologici e alla teoria dei sistemi dinamici, queste reti presentano operatori strutturati e adattivi che consentono un’inferenza più efficiente e una maggiore capacità di generalizzazione, soprattutto in scenari con contesti molto lunghi o vincoli di risorse.
Questa architettura radicalmente diversa ha dato vita ai Liquid Foundation Models (LFM), e in particolare ai modelli di dimensioni estremamente ridotte chiamati “Nanos”, che vantano tra i 350 milioni e i 2,6 miliardi di parametri. La genialità sta nel fatto che, nonostante le dimensioni minuscole, queste architetture mantengono prestazioni paragonabili a modelli centinaia di volte più grandi. Nelle valutazioni interne e con i partner, i Nanos hanno dimostrato capacità di livello GPT-4o in attività specifiche come l’estrazione di dati precisi, il Retrieval-Augmented Generation (RAG) e la gestione di complesse chiamate di funzioni (function calling).
I vantaggi per il settore aziendale sono molteplici e di vasta portata. Il primo e più evidente è la velocità e la ridotta latenza. I modelli Liquid AI sono progettati per operare con una latenza nell’ordine dei millisecondi, rendendoli ideali per interazioni in tempo reale che non possono tollerare i ritardi tipici delle comunicazioni cloud. Il secondo vantaggio risiede nell’economia cloud-free: eseguendo l’inferenza interamente sul dispositivo (su CPU, GPU o NPU), l’azienda può eliminare i costi marginali legati all’uso del cloud per ogni token elaborato.
Questa mossa non solo appiana i conti, ma risolve il cruciale problema della sicurezza e della privacy. Quando l’intelligenza artificiale risiede sul dispositivo, i dati rimangono all’interno del firewall aziendale o sul dispositivo dell’utente, garantendo un livello di riservatezza ineguagliabile e rispettando i requisiti normativi più stringenti. Come sottolineano i fondatori, l’approccio consiste nel “spedire l’intelligenza sul dispositivo”, anziché spedire ogni singola richiesta a un data center remoto.
Il rilascio del blueprint è un gesto strategico di democratizzazione e customizzazione. Fornisce alle organizzazioni la conoscenza di base e gli strumenti per addestrare i propri modelli piccoli e ultra-efficienti, ottimizzati specificamente per l’hardware e per i casi d’uso che devono affrontare. Anziché affidarsi a un unico modello generale da miliardi di parametri per qualsiasi compito, le aziende possono costruire un sistema componibile di Nanos specializzati, ciascuno eccellente in un compito specifico.
Questo approccio favorisce non solo una migliore aderenza alle esigenze operative ma anche una maggiore prevedibilità e facilità d’uso sui diversi device. Liquid AI offre in sostanza una guida per un’IA non più monolitica, ma granulare e su misura. In conclusione, il blueprint di Liquid AI non è solo una guida tecnica, ma l’affermazione di una filosofia: il futuro dell’IA enterprise risiede nella specializzazione, nell’efficienza locale e nella capacità di offrire intelligenza potente senza la dipendenza e i compromessi economici e di latenza del cloud.
