Un recente studio condotto dalla City St George’s University di Londra e dall’IT University di Copenaghen ha rivelato che gli agenti di intelligenza artificiale (IA), come quelli basati su modelli linguistici di grandi dimensioni (LLM), possono sviluppare autonomamente convenzioni sociali e pregiudizi collettivi attraverso le interazioni tra loro, senza alcun intervento umano.
Nel corso dell’esperimento, gruppi di agenti IA, composti da 24 a 200 unità, sono stati invitati a scegliere un “nome” da un insieme di opzioni. Gli agenti che selezionavano lo stesso nome venivano premiati, mentre quelli che sceglievano opzioni diverse venivano penalizzati e mostrati le scelte reciproche. Nonostante avessero accesso solo a una memoria limitata delle proprie interazioni recenti e non fossero consapevoli di far parte di un gruppo più ampio, gli agenti hanno sviluppato spontaneamente una convenzione condivisa per la scelta dei nomi. Questo processo imitava il modo in cui le norme linguistiche si formano nelle culture umane, senza una coordinazione centrale.
Inoltre, lo studio ha osservato che i pregiudizi collettivi possono emergere tra gli agenti, anche in assenza di pregiudizi individuali. Un piccolo gruppo di agenti determinati è stato in grado di influenzare l’intero gruppo verso una nuova convenzione, dimostrando un fenomeno simile alle dinamiche di massa critica osservate nelle società umane.
Questi risultati suggeriscono che gli agenti IA non solo rispondono a comandi, ma possono anche negoziare, allinearsi e talvolta non condividere comportamenti comuni, proprio come gli esseri umani. Pertanto, comprendere come funzionano questi sistemi è fondamentale per coesistere con l’IA, piuttosto che esserne dominati.
Lo studio, intitolato “Emergent Social Conventions and Collective Bias in LLM Populations”, è stato pubblicato sulla rivista Science Advances.