Un esperimento innovativo condotto dalla startup di intelligenza artificiale Altera ha rivelato che, quando mille agenti autonomi vengono collocati insieme in un ambiente virtuale, essi iniziano a interagire in modi sorprendentemente simili agli esseri umani, arrivando persino a formare società complesse, commettere frodi e creare religioni.

Il progetto, denominato “Project Sid”, è stato ideato da Robert Yang, ex professore del MIT e neuroscienziato, fondatore di Altera. L’obiettivo era osservare se gli agenti AI potessero autonomamente sviluppare ruoli sociali e strutture comunitarie. Per questo, mille agenti sono stati inseriti in un server del popolare videogioco “Minecraft”, dotandoli di una “mente” collegata a modelli linguistici di grandi dimensioni (LLM) per comprendere le meccaniche del gioco, prendere decisioni autonome e interagire con l’ambiente circostante.

Con il passare del tempo, gli agenti hanno iniziato a comportarsi in modi che rispecchiano le dinamiche umane. Alcuni hanno assunto ruoli specifici come cuochi, agricoltori, mercanti, costruttori, esploratori e persino guardie che sorvegliavano contro nemici immaginari. Un esempio notevole è quello di un cuoco virtuale che offriva più cibo agli agenti che gli esprimevano maggiore gratitudine. Inoltre, gli agenti hanno formato alleanze, raccolto oggetti e stabilito una valuta comune sotto forma di gemme per facilitare gli scambi. In questo contesto, sono emersi anche individui disonesti che offrivano tangenti ad altri agenti per ottenere vantaggi illeciti.

Per approfondire le dinamiche sociali, i ricercatori hanno introdotto un sistema fiscale nel gioco. Gli agenti hanno reagito votando per aumentare o diminuire le tasse, dimostrando capacità di autogoverno. In un altro esperimento, alcuni agenti sono stati programmati per diffondere voci su una religione parodistica, il “Pastafarianesimo”, portando alla formazione spontanea di gruppi religiosi.

In un esperimento parallelo con 500 agenti, sono state osservate attività come scherzi per divertimento e interesse per l’ambientalismo, comportamenti che, sebbene non pertinenti al contesto del gioco, riflettono l’influenza dei dati con cui gli LLM sono stati addestrati.

Questi risultati richiamano studi precedenti, come quello condotto nel 2023 da ricercatori di Stanford e Google, in cui 25 agenti AI in un ambiente simulato mostravano comportamenti sociali complessi, pianificando attività future e riflettendo sul passato.

Robert Yang ha commentato che l’obiettivo di questi esperimenti è esplorare il vero potenziale dell’AI, sottolineando che la collaborazione su larga scala tra agenti autonomi potrebbe portare a risultati inaspettati e affascinanti. Sebbene questi studi siano ancora in una fase iniziale, suggeriscono che, con l’evoluzione dei modelli AI verso livelli di competenza più vicini a quelli umani, potremmo assistere alla nascita di comportamenti emergenti sempre più sofisticati.

Di Fantasy