Quando si parla di addestrare agenti intelligenti — software capaci di prendere iniziative, usare strumenti, ragionare e agire in ambienti variabili — la narrativa prevalente è che servano enormi volumi di dati, cluster impressionanti di GPU, settimane o mesi di calcolo. Eppure, una ricerca recente presentata sotto il nome LIMI (acronimo di Less Is More for Intelligent Agency) sfida quell’idea, dimostrando che un agente sofisticato può emergere a partire da solo 78 esempi ben curati.
LIMI parte da una premessa radicale: mentre i modelli linguistici (LLM) si basano su leggi di scala — più dati, più parametri, migliore prestazione — l’“agency” (cioè la capacità di un sistema di operare in autonomia in ambienti dinamici, esplorare, pianificare, usare strumenti) sembra obbedire a principi diversi. Gli autori del progetto sostengono che selezionare con cura esempi di comportamento agente piuttosto che accumulare massa di dati possa essere la strada più efficace. E nei loro esperimenti colonici, usando soltanto 78 dimostrazioni di comportamento agente, sono riusciti a ottenere un modello che supera nettamente diverse controparti addestrate su migliaia di esempi.
La ricerca pubblicata (preprint) mostra che LIMI ottiene un punteggio del 73,5 % su benchmark dedicati all’intelligenza autonoma, ben al di sopra di modelli come Kimi-K2-Instruct (24,1%), DeepSeek-V3 (11,9%) o Qwen3-235B-A22B-Instruct (27,5 %) e persino GLM-4.5 (45,1 %). Non solo: LIMI supera le versioni di quei modelli addestrate con 10.000 esempi, pur operando con un quantitativo di dati quasi 128 volte più ridotto.
Cosa significa tutto questo? Significa che la qualità strategica delle dimostrazioni importa più della quantità. Nel contesto dell’“agency”, non basta mostrare al modello come rispondere a input: serve mostrargli come agire, come usare strumenti, come esplorare decisioni consequenziali, come reagire ai fallimenti, come pianificare strategie. Quei 78 esempi — scelti, diversificati e rappresentativi — contengono proprio questi elementi chiave.
Dietro il nome “agency” si cela un’idea potente: l’IA non è più un sistema che “risponde” (in linguaggio), ma un agente che “fa”, che si inserisce nel mondo, esplora, prende decisioni, usa strumenti e interagisce. LIMI tende un ponte fra modelli generativi e agenti di nuova generazione. Gli autori definiscono l’“intelligenza agentica” come la capacità di identificare problemi, formulare ipotesi e progettare piani esecutivi interagendo con ambienti e strumenti.
Il risultato non è solo teorico: se un agente può emergere con così poco “seme”, cambia molto della fattibilità pratica. Non serve più (sempre) disporre di centinaia di migliaia di esempi per ogni compito agente: può bastare un insieme piccolo ma ben pensato. Questo apre scenari in cui nuovi domini — settori verticali, ambienti aziendali specifici, applicazioni personalizzate — possono ottenere agenti intelligenti con costi realisticamente contenuti.
Naturalmente, ci sono domande che restano da esplorare. Limiti di generalizzazione: fino a che punto quell’agente addestrato su 78 esempi può adattarsi a contesti nuovi, mai visti? Qual è la robustezza a errori, distrazioni, ambienti imprevisti? E quanto è sensibile la prestazione alla scelta degli esempi iniziali? Questi aspetti saranno centrali per stabilire se LIMI è un “trucco interessante” o una pietra miliare dell’IA agente.
LIMI propone non solo un modello più efficiente, ma un cambio di paradigma: nell’era degli agenti intelligenti, la strada non è accumulare dati, ma selezionare strategie, insegnare comportamenti, mostrare agire.