Nell’evoluzione dell’intelligenza artificiale, la capacità delle Large Language Models (LLM) di gestire e ricordare informazioni su lunghi periodi è diventata fondamentale per affrontare compiti complessi e dinamici. Recentemente, ricercatori della Rutgers University, in collaborazione con Ant Group e Salesforce Research, hanno proposto un framework innovativo denominato A-MEM, progettato per migliorare la gestione autonoma e flessibile della memoria negli agenti basati su LLM.
La memoria svolge un ruolo cruciale nelle applicazioni degli LLM e negli agenti autonomi, poiché consente interazioni a lungo termine tra strumenti e utenti. Tuttavia, i sistemi di memoria attuali spesso risultano inefficienti o basati su schemi predefiniti che possono non adattarsi alla natura in continua evoluzione delle applicazioni e delle interazioni. Questa rigidità limita la capacità degli agenti di generalizzare in nuovi ambienti e di mantenere efficacia in interazioni prolungate. La sfida diventa ancora più critica quando gli LLM affrontano compiti complessi e aperti, dove l’organizzazione flessibile delle conoscenze e l’adattamento continuo sono essenziali.
A-MEM introduce un’architettura di memoria agentica che consente una gestione autonoma e flessibile della memoria per gli agenti LLM. Ogni volta che un agente LLM interagisce con il suo ambiente—sia accedendo a strumenti che scambiando messaggi con gli utenti—A-MEM genera “note di memoria strutturate” che catturano sia informazioni esplicite che metadati come tempo, descrizione contestuale, parole chiave rilevanti e memorie collegate. Alcuni dettagli sono generati da LLM mentre esamina l’interazione e crea componenti semantiche. Una volta creata una memoria, un modello di codifica viene utilizzato per calcolare il valore di embedding di tutti i suoi componenti. La combinazione di componenti semantiche generate dall’ LLM e di embedding fornisce sia un contesto interpretabile dall’uomo che uno strumento per un recupero efficiente attraverso la ricerca per similarità.
Una delle componenti interessanti del framework A-MEM è un meccanismo per collegare diverse note di memoria senza la necessità di regole predefinite. Per ogni nuova nota di memoria, A-MEM identifica le memorie più vicine basandosi sulla similarità dei loro valori di embedding. L’ LLM analizza quindi il contenuto completo dei candidati recuperati per scegliere quelli più adatti da collegare alla nuova memoria. Utilizzando il recupero basato su embedding come filtro iniziale, A-MEM garantisce scalabilità ed efficienza mantenendo la rilevanza semantica. Questo processo consente al sistema di identificare rapidamente potenziali connessioni anche in ampie collezioni di memorie senza confronti esaustivi. Più memorie vengono aggiunte nel tempo, più questo processo affina le strutture di conoscenza del sistema, permettendo la scoperta di schemi e concetti di ordine superiore attraverso le memorie.
I ricercatori hanno testato A-MEM su LoCoMo, un dataset di conversazioni molto lunghe che si estendono su più sessioni. LoCoMo contiene compiti impegnativi come domande multi-hop che richiedono la sintesi di informazioni attraverso più sessioni di chat e domande di ragionamento che richiedono la comprensione di informazioni legate al tempo. Gli esperimenti mostrano che A-MEM supera altre tecniche di memoria agentica di base nella maggior parte delle categorie di compiti, specialmente quando si utilizzano modelli open source. È notevole che A-MEM raggiunga prestazioni superiori riducendo i costi di inferenza, richiedendo fino a 10 volte meno token per rispondere alle domande.