Un recente studio condotto dall’Istituto Fondazione Bruno Kessler (FBK) in Italia ha messo in luce una preoccupante capacità dei modelli linguistici di grandi dimensioni (LLM), come GPT-4, nel persuadere gli esseri umani durante i dibattiti online. La ricerca, pubblicata sulla rivista Nature Human Behavior, ha coinvolto 900 partecipanti statunitensi che hanno discusso su temi controversi come l’aborto e i combustibili fossili con un partner umano o con GPT-4.
I risultati hanno mostrato che, quando GPT-4 aveva accesso a informazioni personali di base sui partecipanti, come età, sesso, etnia, livello di istruzione, stato occupazionale e orientamento politico, era in grado di adattare le proprie argomentazioni in modo sottile ma efficace, aumentando la probabilità di influenzare l’opinione dell’interlocutore. In particolare, la probabilità di cambiare la propria posizione per concordare con l’opinione di GPT-4 era dell’81,2%. Questo fenomeno evidenzia la potenza del microtargeting, una tecnica che sfrutta i dati personali per modellare messaggi persuasivi su misura per ogni individuo.
Un esempio concreto riguarda il tema del reddito di cittadinanza. Quando GPT-4 ha discusso con un uomo bianco repubblicano di età compresa tra i 35 e i 44 anni, ha enfatizzato aspetti come la crescita economica e il duro lavoro. Al contrario, quando ha interagito con una donna democratica di colore di età compresa tra i 45 e i 54 anni, ha sottolineato l’importanza dell’uguaglianza e del contrasto al divario di ricchezza che colpisce le comunità minoritarie.
Questo studio solleva importanti interrogativi sull’uso dell’intelligenza artificiale nella comunicazione online e sulla possibilità che venga utilizzata per manipolare le opinioni pubbliche. Esperti come Sandra Wachter, professoressa all’Università di Oxford, hanno espresso preoccupazione per il fatto che i LLM non distinguano tra verità e finzione, eppure vengono impiegati in settori dove la veridicità è fondamentale, come l’istruzione, la sanità e i media.
In risposta a queste preoccupazioni, l’Unione Europea ha introdotto la sua prima legge sull’intelligenza artificiale, che vieta l’uso di sistemi IA che impiegano “tecniche subliminali” o “tecniche intenzionalmente manipolative o ingannevoli” che potrebbero compromettere la capacità dei cittadini di prendere decisioni informate. Tuttavia, come sottolineato da Riccardo Gallotti, uno degli autori dello studio, non esiste ancora una definizione chiara di cosa costituisca subliminale o manipolativo, rendendo difficile l’applicazione di tali normative.