I modelli linguistici di grandi dimensioni (LLM) nell’intelligenza artificiale, come GPT-3, 3.5 e 4 sviluppati da OpenAI, sono una straordinaria fonte di conoscenza sulla nostra vita, comunicazione e comportamento. I ricercatori stanno costantemente esplorando nuovi modi per sfruttare questa conoscenza.
Un recente studio condotto dall’Università di Stanford ha dimostrato che, con un’adeguata progettazione, gli LLM possono essere utilizzati per simulare il comportamento umano in modo dinamico e incredibilmente realistico.
Questo studio, intitolato “Generative Agents: Interactive Simulacra of Human Behavior”, ha investigato il potenziale dei modelli generativi nella creazione di agenti di intelligenza artificiale capaci di memorizzare interazioni passate, riflettere sulle informazioni acquisite e pianificare obiettivi a breve e lungo termine basati su una memoria in costante evoluzione. Questi agenti possono simulare il comportamento umano nelle attività quotidiane, dai compiti più banali alle complesse decisioni.
Inoltre, quando questi agenti vengono combinati, possono emulare comportamenti sociali complessi che emergono dalle interazioni di una vasta popolazione. Questa ricerca apre molte possibilità, soprattutto nella simulazione delle dinamiche di una comunità, offrendo preziose informazioni sui comportamenti e sulle interazioni sociali.
Nello studio, i ricercatori hanno simulato questi agenti generativi all’interno di un ambiente di gioco sandbox chiamato Smallville, composto da vari elementi come ristoranti, scuole, bar e altro ancora.
Questo ambiente era abitato da 25 agenti generativi alimentati da un LLM. Il LLM veniva avviato con un prompt che forniva una descrizione dettagliata del comportamento, dell’occupazione, delle preferenze, dei ricordi e delle relazioni dell’agente con gli altri agenti. L’output del LLM costituiva il comportamento dell’agente.
Gli agenti interagivano con l’ambiente attraverso azioni concrete. Inizialmente, generavano dichiarazioni in linguaggio naturale come “Isabella sta bevendo caffè”, che poi si traducevano in azioni fisiche all’interno di Smallville.
Inoltre, gli agenti comunicavano tra loro attraverso il dialogo in linguaggio naturale, influenzato dai loro ricordi e dalle interazioni passate.
Gli utenti umani potevano interagire con gli agenti utilizzando la voce di un narratore, modificando lo stato dell’ambiente o controllando direttamente un agente. Questo design interattivo mirava a creare un ambiente dinamico con molte possibilità.
Ogni agente in Smallville era dotato di una memoria continua che registrava le esperienze in linguaggio naturale. Questa memoria era fondamentale per il comportamento dell’agente. Ogni volta che un agente agiva, recuperava i ricordi rilevanti per facilitare la pianificazione.
Tuttavia, la gestione della memoria rappresentava una sfida. Con il tempo, la memoria di un agente poteva diventare molto estesa. Per affrontare questo problema, i ricercatori hanno sviluppato una funzione di recupero che valutava la rilevanza di ogni pezzo di memoria rispetto al contesto attuale, utilizzando radicamenti per misurare la similarità. Inoltre, venivano create “riflessioni” astratte che sintetizzavano la memoria, migliorando il recupero delle informazioni per azioni future.
La memoria e le riflessioni consentivano agli agenti di creare prompt ricchi per il LLM, che poi utilizzavano per pianificare le azioni. La pianificazione era un aspetto cruciale, e i ricercatori hanno adottato un approccio gerarchico per consentire agli agenti di eseguire azioni immediate e pianificare a lungo termine in modo dinamico.
Quando la simulazione veniva avviata, ogni agente partiva con conoscenze di base, routine quotidiane e obiettivi personali. Pianificavano e realizzavano tali obiettivi, interagendo tra loro e scambiando informazioni. Queste interazioni portavano a cambiamenti nel comportamento della comunità, poiché gli agenti adattavano i loro piani e obiettivi in risposta alle informazioni acquisite.
Gli esperimenti hanno dimostrato che gli agenti generativi imparavano a coordinarsi tra loro senza bisogno di istruzioni esplicite. Ad esempio, uno degli agenti aveva l’obiettivo di organizzare una festa di San Valentino, e questa informazione alla fine si diffondeva agli altri agenti, che decidevano di partecipare alla festa.
Tuttavia, nonostante i risultati impressionanti, vi erano limitazioni. Gli agenti generativi occasionalmente avevano difficoltà nel recupero della memoria, portando a comportamenti incoerenti o a “allucinazioni” nei ricordi. Inoltre, erano eccessivamente educati e collaborativi, mancando di rappresentare appieno la gamma completa del comportamento umano, che comprende anche conflitti e disaccordi.
Questo studio ha suscitato grande interesse nella comunità di ricerca, con la condivisione del codice sorgente dell’ambiente virtuale e degli agenti generativi. Questo ha permesso ad altri ricercatori, tra cui la nota società di venture capital Andreessen Horowitz (a16z), di sviluppare ulteriormente questa tecnologia.
Mentre gli agenti virtuali di Smallville si divertono, i ricercatori credono che il loro lavoro abbia applicazioni pratiche significative. Ad esempio, potrebbero essere utilizzati per analizzare le dinamiche nei social network e prevenire la diffusione di disinformazione o comportamenti dannosi. Mantenere registri di controllo dei comportamenti degli agenti potrebbe garantire trasparenza e responsabilità.
In sintesi, gli agenti generativi rappresentano un campo di ricerca promettente con molteplici applicazioni interattive, dalle simulazioni sociali agli ambienti immersivi.”