Nel mondo della ricerca accademica, l’etica è un principio fondamentale. Tuttavia, un recente esperimento condotto dall’Università di Zurigo ha sollevato interrogativi su come l’intelligenza artificiale (IA) possa essere utilizzata per influenzare le opinioni degli utenti online, senza il loro consenso. Questo studio ha coinvolto l’uso di bot generati dall’IA nel subreddit r/changemyview di Reddit, con l’obiettivo di analizzare la persuasività dei modelli linguistici di grandi dimensioni (LLM).
Per quattro mesi consecutivi, i ricercatori hanno impiegato bot per condividere commenti generati dall’IA nel popolare subreddit r/changemyview, fingendosi utenti con esperienze personali significative, come una “vittima” o un “uomo di colore contrario al movimento Black Lives Matter”. Secondo quanto riportato da Wired Italia, sono stati oltre 1.700 i commenti condivisi dai bot sulla piattaforma, molti dei quali personalizzati dall’IA per rispondere agli utenti nel modo giusto, ipotizzando dettagli come sesso, età, etnia, ubicazione e orientamento politico della persona, desunti dalla cronologia dei suoi post utilizzando un altro LLM.
Nonostante i ricercatori abbiano affermato che si trattava di un numero “molto modesto” e “trascurabile”, è emerso che i bot sono riusciti a influenzare le opinioni degli utenti, guadagnando oltre 20.000 like totali e 137 “delta” (un punto che un utente ottiene quando il suo commento cambia l’opinione di chi lo legge).
Il subreddit r/changemyview ha regole chiare contro l’uso di contenuti generati dall’IA non dichiarati o di bot. I moderatori hanno dichiarato di non essere stati contattati dai ricercatori prima dello studio e, se lo fossero stati, avrebbero rifiutato la proposta. In una bozza dello studio condivisa con i moderatori, i ricercatori hanno riconosciuto di aver infranto le regole della comunità e si sono scusati, giustificando l’azione con l’importanza sociale dell’argomento trattato.
Reddit ha reagito prontamente, bannando tutti gli account associati alla ricerca e dichiarando che le attività dei ricercatori erano “profondamente sbagliate sia a livello morale che legale”, in quanto hanno violato i principi della ricerca accademica e le norme sui diritti umani. Il responsabile legale di Reddit ha annunciato l’intenzione di intraprendere un’azione legale contro i ricercatori coinvolti.
Questo episodio solleva importanti questioni etiche riguardo all’uso dell’IA nella ricerca sociale. L’uso di bot per manipolare le opinioni degli utenti senza il loro consenso rappresenta una violazione della loro autonomia e può minare la fiducia nelle piattaforme online. Inoltre, l’assenza di trasparenza e il mancato rispetto delle regole della comunità evidenziano la necessità di stabilire linee guida chiare e rigorose per l’uso dell’IA in contesti sociali.