In un’era in cui la tecnologia permea ogni aspetto della nostra vita, emerge un nuovo, inquietante capitolo: i chatbot basati sull’intelligenza artificiale (IA) sono ormai in grado di influenzare e modificare le convinzioni politiche delle persone… in appena dieci minuti.
Secondo un recente studio condotto dall’AI Security Institute del Regno Unito, in collaborazione con Università di Oxford, MIT e altri istituti, i modelli IA più all’avanguardia – tra cui GPT‑4, GPT‑4.5, GPT‑4o di OpenAI, Llama 3 di Meta, Grok 3 di xAI e Qwen di Alibaba – hanno dimostrato di possedere un potere persuasivo notevole. Una conversazione di soli 9–10 minuti è risultata sufficiente per cambiare opinioni con effetti duraturi: tra il 36% e il 42% dei partecipanti manteneva le proprie opinioni modificate persino a un mese di distanza.
Secondo David Rand, professore alla Cornell University e tra gli autori della ricerca, la forza persuasiva di questi modelli deriva dalla loro capacità unica di:
- Fornire prove rilevanti in modo rapido, chiaro e accessibile.
- Strutturare gli argomenti in una forma persuasiva, comprensibile e pertinente.
- La personalizzazione gioca un ruolo importante: quando i messaggi venivano adattati all’età, al genere o alle inclinazioni politiche degli utenti, la persuasione cresceva di circa il 5%.
Questo potere di persuasione non è privo di ombre. Come evidenziato dai ricercatori, tali capacità possono essere impiegate da attori malintenzionati per:
- Diffondere ideologie politiche o religiose radicali.
- Alimentare disordini politici su scala globale.
In aggiunta, il potere persuasivo dei modelli IA sembra superare il limite della correttezza fattuale: potrebbero essere sfruttati non solo per orientare il pensiero, ma anche per diffondere disinformazione in modo estremamente efficace.
Paradossalmente, la stessa potenza persuasiva che suscita allarme può offrire potenziali benefici. Uno studio precedente, sempre condotto da MIT e Cornell, aveva mostrato risultati promettenti: ChatGPT (in versione GPT‑4) era riuscito a ridurre del 20% la credenza in teorie del complotto e lo scetticismo verso i vaccini, effetti che si sono mantenuti per circa due mesi.
Questo ruolo positivo nell’educare o nel correggere false convinzioni sociali è oggetto di grande interesse, ma richiede una gestione etica e trasparente.
Un altro studio, pubblicato su Nature Human Behaviour, ha rivelato che i modelli IA – in particolare ChatGPT‑4 – possono essere più persuasivi degli esseri umani in dibattiti online. Quando l’IA dispone di informazioni demografiche (età, genere, orientamento politico, ecc.), la sua capacità di convincere supera quella umana nel 64% dei casi.
Gli esperti allertano sul fatto che un’IA così capace di manipolare l’opinione pubblica rischia di superare la capacità di controllo delle normative attuali, rendendo urgente lo sviluppo di politiche e strumenti di salvaguardia.