Da tempo nel dibattito sull’agentic AI — ovvero quella capacità degli agenti software di compiere azioni autonome, orchestrare processi, interagire con strumenti — domina l’idea che servano modelli mastodontici, straordinariamente generali, sempre più grandi. È come se la “forza dell’agente” fosse direttamente proporzionale al numero dei parametri. Ma cosa succede se quella formula non fosse sempre la strada migliore? È proprio questa la domanda provocatoria che solleva Liquid AI, startup nata come spin-off del MIT, con la sua proposta di modelli “nano”, piccoli ma specializzati, che puntano a rivoluzionare l’approccio all’agentic AI.
Liquid AI sostiene che, in molti contesti reali, l’adozione di grandi modelli “generali” porta con sé limiti che diventano rapidamente insopportabili: costi elevati, latenza, dipendenza dalla rete, difficoltà di personalizzazione, problemi di privacy. In risposta, propone una direzione alternativa: modelli compatti, progettati per compiti specifici e in grado di funzionare localmente, su dispositivi edge – laptop, smartphone, persino sensori o piccoli robot.
Questa visione rovescia — o quantomeno affianca — l’idea dominante dell’AI “in cloud”: invece di spedire tutti i dati al centro (e eseguire lì i calcoli), portare l’intelligenza sui dispositivi stessi. L’evento cruciale che Liquid AI annuncia sono i Liquid Nanos: sei architetture con dimensioni che variano dai 350 milioni ai 2,6 miliardi di parametri, ciascuna costruita e ottimizzata per compiti specifici (estrazione dati, traduzione, question answering con documenti, chiamata di funzioni, ragionamento matematico).
La chiave del progetto è questa: se un modello è “nativo” per un compito, se non deve essere tuttofare, allora può competere — e in alcuni casi superare — modelli enormi con molti più parametri. Per esempio, il modello LFM2-1.2B-Extract — progettato per estrarre dati da testo non strutturato — si confronta con modelli da decine di miliardi e, secondo Liquid AI, supera le prestazioni in metriche di accuratezza, sintassi e fedeltà.
Allo stesso modo, per traduzione, il modello da 350 milioni (LFM2-350M-ENJP-MT) mostra prestazioni competitive su un benchmark giapponese contro sistemi più “pesanti”. Si crea così una strategia a mosaico: ciascun “nano” entra nel suo perimetro ideale, ed è meno soggetto a inefficienze o dispersioni causate da generalità eccessive.
Liquid AI non si limita a “tagliare modelli grossi” in porzioni: la sua architettura è costruita su principi diversi da quelli dei transformer dominanti (il paradigma attuale della generative AI). Deriva da idee prese da sistemi dinamici, elaborazione del segnale e matematica numerica, con l’obiettivo di rendere l’inferenza più leggera, più veloce, meno costosa. La seconda generazione, LFM2, è progettata per ottenere decodifica e prefill più veloci su CPU rispetto a modelli concorrenti, e aumentare l’efficienza di addestramento rispetto alla generazione precedente.
Ancora, Liquid AI ha realizzato LEAP (Liquid Edge AI Platform), un SDK per iOS, Android e desktop che consente agli sviluppatori di integrare i Liquid Nanos con minima esperienza in machine learning. C’è anche l’app Apollo, che permette di sperimentare i modelli offline su iPhone.
L’approccio “nano e specifico” promette una serie di benefici concreti:
- Latenza e reattività: eseguendo il modello localmente, si riducono i ritardi tipici del round trip in cloud.
- Costi contenuti: i modelli più piccoli consumano meno risorse, sia in memoria che in calcolo.
- Privacy e sicurezza: il dato rimane sul dispositivo, senza passaggi attraverso infrastrutture esterne.
- Operatività in contesti difficili: zone con connessione debole, ambienti isolati, dispositivi con risorse limitate — in tutti quei casi che un modello gigantesco in cloud non può servire efficacemente.
Ma non è un percorso privo di ostacoli. Innanzi tutto, un modello specializzato è meno flessibile: quando l’ambito del compito cambia, potrebbe non adattarsi bene, e servirebbe riadattamento. C’è il rischio che a fronte di compiti non previsti emergano limiti severi. In secondo luogo, la manutenzione e il coordinamento di una miriade di “nano-agenti” sparsi può diventare complesso: assicurarsi che collaborino coerentemente, che non ci siano conflitti, che tutti rimangano aggiornati. Infine, l’equilibrio tra specializzazione e generalità è delicato: fino a che punto un compito può essere “specializzato” senza che le sue varianti impreviste rompano il modello?
Un concetto affascinante che Liquid AI propone è che l’utente non farà mai conto con un singolo assistente universale, ma con una costellazione di agenti — piccoli, controllati, specializzati — che abitano i dispositivi, le app, le funzionalità specifiche. Un po’ quello che oggi accade con le app: ognuna ha scopi definiti. In futuro, potremmo avere 50, 100 “micro-agent”, ciascuno attivo quando serve, leggendo il contesto, intervenendo, restando “silenzioso” altrimenti.
Così, un agente potrebbe occuparsi della traduzione, un altro dell’estrazione dei dati, un altro del controllo contestuale, un altro della sicurezza. Insieme, compongono un ecosistema agentico distribuito.
Liquid AI propone una domanda decisiva: e se l’agentic AI non dovesse essere una corsa al “più grande possibile”, ma piuttosto all’“ideale per compito”, efficiente, distribuito? Se la vera liberazione dalle limitazioni del cloud stesse non nel potenziare l’intelligenza centrale, ma nel moltiplicarla in forma snella sui dispositivi?
Se il futuro dell’AI agentica adottasse questo modello “liquido”, potremmo vedere agenti che non vivono solo nel cloud, ma dentro te, dentro ogni app, dentro ogni oggetto “intelligente” — piccoli, discreti, collaborativi. Modelli che lavorano insieme, piuttosto che un unico super-agente onnisciente.