Immagine AI

Nel mondo dello sviluppo tecnologico è sempre esistita una convinzione radicata, quasi un dogma: l’idea che unire più forze porti inevitabilmente a risultati migliori. Questo principio, applicato all’intelligenza artificiale, ha spinto molte aziende a investire massicciamente nei cosiddetti sistemi multi-agente, in cui diverse unità basate su modelli linguistici collaborano per risolvere compiti complessi. Tuttavia, una recente e rigorosa analisi condotta dai ricercatori di Google e del MIT ha messo seriamente in discussione questo approccio. Lo studio dimostra che aggiungere più agenti a un sistema non è sempre una garanzia di successo; al contrario, in molte circostanze questa scelta può trasformarsi in un’arma a doppio taglio, capace di far lievitare i costi operativi e moltiplicare gli errori invece di ridurli.

Il cuore della ricerca risiede nel superamento del mito della produttività lineare. Gli studiosi hanno evidenziato che l’introduzione di nuovi agenti digitali porta con sé due ostacoli strutturali: il peso del coordinamento e la propagazione degli errori. Quando troppi agenti lavorano insieme, la necessità di scambiarsi messaggi, condividere memorie e orchestrare i passaggi crea una sorta di “attrito” informatico che consuma risorse preziose. Inoltre, se un singolo agente commette un piccolo sbaglio in una catena di lavoro sequenziale, quell’errore tende a trasmettersi e ad ampliarsi nei passaggi successivi, compromettendo l’intero risultato finale. In attività che richiedono passaggi logici concatenati, le prestazioni sono crollate drasticamente, con cali che variano tra il trentanove e il settanta per cento, indipendentemente dalla raffinatezza tecnologica utilizzata.

Per giungere a queste conclusioni, il team ha messo a confronto il classico sistema a singolo agente con quattro diverse strutture di collaborazione multi-agente: quella indipendente, quella centralizzata con un supervisore, quella decentralizzata basata sulla discussione diretta e quella ibrida. Attraverso centottanta configurazioni sperimentali, applicate a settori critici come l’analisi finanziaria, la scrittura di codice e la navigazione web, è emerso un dato sorprendente. Esiste una soglia di rendimento oltre la quale l’aggiunta di nuovi collaboratori artificiali diventa inutile o dannosa. In particolare, quando un singolo agente è già in grado di risolvere un compito con una precisione superiore al quarantacinque per cento, l’inserimento di altri agenti apporta miglioramenti minimi o, paradossalmente, peggiora la qualità dell’output.

Un altro limite significativo riguarda la gestione degli strumenti e delle informazioni contestuali. All’aumentare del numero di agenti, la quantità di informazioni che ogni singola unità può elaborare diminuisce, riducendo l’efficienza nell’uso di software esterni o database. In contesti operativi complessi che prevedono l’uso di molti strumenti contemporaneamente, i sistemi multi-agente si sono rivelati fino a sei volte meno efficienti rispetto a un unico agente ben addestrato. Tuttavia, la ricerca non boccia totalmente la collaborazione tra macchine, ma ne ridefinisce i confini: in settori specifici come la finanza, dove i compiti possono essere suddivisi in moduli indipendenti e verificati centralmente, una struttura ben organizzata può ancora portare a miglioramenti nelle prestazioni superiori all’ottanta per cento.

Di Fantasy