Microsoft (MS) ha annunciato l’introduzione di un nuovo framework mirato a sostenere lo sviluppo di modelli linguistici di grandi dimensioni (LLM) utilizzando “agenti di intelligenza artificiale (AI)” in grado di comunicare e collaborare tra di loro. L’arrivo di Microsoft promette di portare un aumento della concorrenza nel campo dei framework per agenti AI, dove l’intelligenza artificiale generativa (AI) è in grado di generare risultati autonomamente, senza la necessità di istruzioni dettagliate, semplicemente fissando un obiettivo.
Secondo quanto riportato da VentureBeat, Microsoft ha collaborato con la Penn State University e l’Università di Washington per lanciare uno strumento innovativo chiamato “AutoGen”, una libreria Python open source progettata per assistere gli sviluppatori nella creazione di applicazioni complesse basate su LLM.
AutoGen è un framework che semplifica lo sviluppo di applicazioni LLM, facilitando il coordinamento, l’automazione e l’ottimizzazione dei flussi di lavoro LLM complessi attraverso la possibilità di interazioni tra più agenti. Il concetto fondamentale di AutoGen è quello di creare agenti, che possono essere programmati utilizzando moduli guidati da LLM, come ad esempio “GPT-4”.
Utilizzando AutoGen, gli sviluppatori possono creare agenti IA specializzati per diverse funzioni, creando contemporaneamente un “ecosistema di agenti” che collabora con altri agenti secondo necessità. Microsoft sottolinea che è possibile sviluppare un agente esperto di ingegneria in grado di recuperare informazioni o eseguire codice, e un agente che utilizza strumenti esterni. Questi agenti possono comunicare tra loro utilizzando il linguaggio naturale e il codice di programmazione per svolgere una varietà di compiti.
Ogni agente può essere visto come una “sessione ChatGPT individuale” con funzionalità uniche. Per esempio, un agente potrebbe essere incaricato di fungere da assistente di programmazione, generando codice Python in base alle richieste dell’utente. Un altro agente potrebbe agire come revisore di codice, risolvendo problemi in un pezzo di codice Python. Durante questo processo, la risposta del primo agente può essere utilizzata come input per il secondo agente. In caso di necessità, è possibile accedere a strumenti esterni, come il plug-in ChatGPT, per risolvere i problemi.
Le applicazioni multi-agente possono essere completamente autonome o guidate da un “UserProxyAgent”, che permette agli utenti di intervenire nelle conversazioni tra agenti IA e svolgere un ruolo di supervisione e controllo del processo. Gli utenti umani sono responsabili della supervisione di diversi team di intelligenza artificiale. Gli agenti proxy utente sono utili per le applicazioni che richiedono decisioni sensibili e necessitano della conferma dell’utente, come l’acquisto di prodotti o l’invio di e-mail.
Gli utenti possono anche fornire indicazioni agli agenti quando si stanno allontanando dalla direzione desiderata. Ad esempio, un utente può iniziare con un’idea iniziale per un’applicazione e iniziare a scrivere codice con l’assistenza di un agente, perfezionando gradualmente il lavoro e aggiungendo o modificando funzionalità.
AutoGen permette anche l’uso degli agenti integrati per svolgere attività complesse, come richiedere assistenza nella scrittura di codice per compiti specifici.
L'”AssistantAgent” può generare e fornire codice, mentre l’agente proxy dell’utente può controllarlo utilizzando il modulo di esecuzione del codice. I due agenti AI possono collaborare per risolvere i problemi di codice e produrre una versione eseguibile finale, con la possibilità per l’utente di intervenire o fornire feedback in qualsiasi momento.
AutoGen è in grado di supportare scenari e architetture complessi, inclusi layout gerarchici degli agenti LLM, grazie a un “agente di gestione della chat di gruppo” che coordina le conversazioni tra più utenti e agenti LLM, e trasmette messaggi tra di loro seguendo regole definite.
Nel frattempo, il campo dei framework per agenti LLM è diventato sempre più competitivo grazie alla crescita dell’intelligenza artificiale generativa. “LangChain” è un framework per creare una varietà di applicazioni LLM, dalla creazione di chatbot al riassunto di testi e agli agenti. ‘LlmaIndex’ fornisce strumenti avanzati per connettere LLM a fonti di dati esterne, come documenti e database.
Librerie come “AutoGPT”, “MetaGPT” e “BabyGPT” si concentrano sugli agenti LLM e sulle applicazioni multi-agente, mentre “ChatDev” è un framework per agenti LLM che emula un intero team di sviluppo software. La libreria “Transformers Agents” di Hugging Face consente agli sviluppatori di creare applicazioni interattive che collegano LLM a strumenti esterni.
Gli esperti hanno sottolineato che l’ingresso di Microsoft in questo campo attraverso AutoGen è una prova tangibile dell’intensificarsi della concorrenza nel settore degli agenti LLM e del loro enorme potenziale.