Immagine AI

In un mondo in cui l’intelligenza artificiale fatica a gestire processi complessi senza sprofondare nella ripetizione o nell’errore, emerge una soluzione che rispecchia il modo in cui gli esseri umani affinano le loro abilità: non basta sapere—bisogna imparare a fare, e farlo sempre meglio.

È su questa intuizione che si fonda Memp, un’innovativa architettura sviluppata da Zhejiang University e Alibaba Group: un framework che dota gli agenti basati su LLM (Large Language Models) di una memoria procedurale dinamica, capace di evolversi attraverso l’esperienza, proprio come accade in noi con la pratica quotidiana.

Immagina questi scenari: un agente digitale si trova ad affrontare compiti multistep in ambienti instabili – una rete che salta, interfacce che cambiano o dati che si trasformano. Il rischio? Ripartire da zero ogni volta, bruciando tempo e token preziosi. Ma nella maggior parte dei casi, la struttura del compito è ricorrente, anche se mascherata da differenze superficiali. Quello che serve è un modo per non dimenticare come fare, anche quando il cosa cambia. È proprio qui che Memp fa la differenza.

Memp si basa su un ciclo continuo articolato in tre fasi:

  • Costruzione della memoria: l’agente immagazzina i propri “tracciati” di esecuzione—che siano step-by-step o versioni più sintetiche simili a script.
  • Recupero: quando arriva un nuovo compito, l’agente consulta esperienze passate simili, usando tecniche come la ricerca vettoriale o parole chiave.
  • Aggiornamento continuo: le memorie vengono raffinate aggiungendo nuove esperienze, selezionando solo quelle di successo o — soprattutto — imparando dagli errori per correggere vecchie strategie.

Questa evoluzione costante trasforma Memp in una “lifelong learning framework”, dove l’agente non riparte mai da zero, ma cresce, si perfeziona e si adatta nel tempo.

Nei test condotti su modelli avanzati come GPT‑4o, Claude 3.5 Sonnet e Qwen 2.5, Memp ha dimostrato di migliorare significativamente i tassi di successo. Agenti dotati di memoria procedurale scelgono percorsi più efficaci, riducono la sperimentazione inutile e abbassano il consumo di token — una vera manna per progetti reali e usi aziendali.

Una delle scoperte più affascinanti riguarda la portabilità delle memorie prodotte da Memp: trasferire la memoria procedurale da un modello potente (come GPT‑4o) a uno più piccolo e meno costoso (come Qwen 2.5‑14B) ha portato a miglioramenti tangibili nella performance di quest’ultimo. In pratica, si consente ai modelli più economici di beneficiare di conoscenza derivata da “esperti”, colmando il divario nella pianificazione multi-step.

Il prossimo traguardo? Agenti che non solo imparano, ma si autovalutano. In scenari dove non c’è uno standard esplicito di successo — come la compilazione di report complessi — gli sviluppatori propongono di usare LLM come “giudici”: modelli dotati della capacità di valutare la performance di altri modelli. Questo eliminerebbe la dipendenza da regole rigide fatte a mano, rendendo la crescita degli agenti molto più scalabile e robusta, verso veri sistemi autonomi per l’automazione enterprise

Di Fantasy