Recenti sviluppi nell’ambito di Auto-GPT e BabyAGI hanno evidenziato il potenziale sorprendente degli agenti autonomi, suscitando grande entusiasmo nella comunità di ricerca sull’IA e nello sviluppo software. Questi agenti, che si basano su modelli di linguaggio di grandi dimensioni (LLM), sono in grado di eseguire complesse sequenze di attività in risposta alle richieste dell’utente. Sfruttando una varietà di risorse come Internet, l’accesso ai file locali, altre API e strutture di memoria di base, questi agenti mostrano i primi progressi nell’integrazione della ricorsione nelle applicazioni AI.
BabyAGI, presentato da Yohei Nakajima su Twitter il 28 marzo 2023, è una versione semplificata dell’agente autonomo basato su attività originale. Grazie alle capacità di elaborazione del linguaggio naturale (NLP) di OpenAI e all’utilizzo di Pinecone per l’archiviazione e il recupero dei risultati delle attività, BabyAGI offre un’esperienza utente efficiente e facile da utilizzare. Con soli 140 righe di codice conciso, BabyAGI è facile da capire ed espandere.
Il nome BabyAGI è significativo poiché questi strumenti spingono costantemente la società verso sistemi di intelligenza artificiale sempre più avanzati, anche se ancora lontani dall’Artificial General Intelligence (AGI). L’ecosistema AI sta facendo progressi ogni giorno e, con le scoperte future e il potenziale per una versione di GPT in grado di affrontare problemi complessi, questi sistemi danno agli utenti l’impressione di interagire con AGI.
Auto-GPT è un agente AI progettato per raggiungere obiettivi espressi in linguaggio naturale, suddividendoli in attività secondarie più piccole e utilizzando risorse come Internet e altri strumenti in un ciclo automatizzato. Questo agente utilizza le API GPT-4 o GPT-3.5 di OpenAI e rappresenta una delle prime applicazioni che utilizzano GPT-4 per svolgere attività autonome.
A differenza dei sistemi interattivi come ChatGPT, che dipendono da istruzioni manuali per ogni attività, Auto-GPT si pone nuovi obiettivi per raggiungere un obiettivo più ampio, senza richiedere necessariamente l’intervento umano. In grado di generare risposte alle richieste per soddisfare una specifica attività, Auto-GPT può anche creare e modificare le proprie richieste per istanze ricorsive basate su nuove informazioni acquisite.
Sebbene siano ancora in fase sperimentale e presentino alcune limitazioni, gli agenti sono pronti ad aumentare i guadagni di produttività grazie alla diminuzione dei costi di hardware e software AI. Secondo una ricerca di ARK Invest, il software AI potrebbe produrre fino a $14 trilioni di entrate e $90 trilioni di valore aziendale entro il 2030. Mentre i modelli fondamentali come GPT-4 continuano a progredire, molte aziende stanno scegliendo di addestrare i propri modelli più piccoli e specializzati. Mentre i modelli di base hanno un’ampia gamma di applicazioni, i modelli specializzati più piccoli offrono vantaggi come costi di inferenza ridotti.
Questi sviluppi stanno portando a una maggiore diffusione degli agenti autonomi in una vasta gamma di settori, come ad esempio la finanza, la sanità, l’industria manifatturiera e molti altri. Le aziende stanno sperimentando nuovi modi per utilizzare questi agenti per migliorare l’efficienza operativa e ridurre i costi, ottenendo così un vantaggio competitivo.
Tuttavia, con la crescente diffusione degli agenti autonomi, sorgono anche alcune preoccupazioni riguardo alla sicurezza e alla privacy dei dati. È importante che le aziende adottino misure per garantire la sicurezza dei dati e proteggere la privacy degli utenti.
In conclusione, gli agenti autonomi basati su modelli di linguaggio di grandi dimensioni rappresentano una svolta importante nell’evoluzione dell’IA e stanno portando a una maggiore efficienza e produttività in diversi settori. Mentre continuano a evolversi e migliorare, è importante prestare attenzione alle questioni di sicurezza e privacy per garantire che questi strumenti siano utilizzati in modo responsabile e vantaggioso per la società nel suo insieme.
Inoltre, molte aziende preoccupate per i problemi di copyright e la governance dei dati stanno scegliendo di sviluppare i propri modelli proprietari utilizzando un mix di dati pubblici e privati. Un esempio degno di nota è un LLM da 2,7 miliardi di parametri formato su dati biomedici PubMed, che ha ottenuto risultati promettenti nel test di domande e risposte dell’US Medical Licensing Exam (USMLE). Il costo della formazione è stato di circa $ 38.000 sulla piattaforma MosaicML, con una durata di calcolo di 6,25 giorni. Al contrario, si stima che l’esecuzione finale dell’addestramento di GPT-3 sia costata quasi 5 milioni di dollari in termini di calcolo.