ITHACA, N.Y. – Gli assistenti di scrittura alimentati dall’intelligenza artificiale che completano automaticamente le frasi o offrono “risposte intelligenti” non solo mettono le parole in bocca alle persone, ma mettono anche idee nelle loro menti, secondo una nuova ricerca.
Maurice Jakesch, uno studente di dottorato nel campo delle scienze dell’informazione, ha chiesto a oltre 1.500 partecipanti di scrivere un paragrafo in risposta alla domanda “I social media sono benefici per la società?”. Le persone che hanno utilizzato un assistente di scrittura basato sull’IA che era parzializzato a favore o contro i social media erano due volte più propense a scrivere un paragrafo che concordava con l’assistente e molto più propense a dire di avere la stessa opinione, rispetto alle persone che hanno scritto senza l’aiuto dell’IA.
Lo studio suggerisce che i pregiudizi incorporati negli strumenti di scrittura basati sull’IA, che siano intenzionali o non intenzionali, potrebbero avere conseguenze preoccupanti per la cultura e la politica, hanno dichiarato i ricercatori.
“Stiamo affrettandoci a implementare questi modelli di intelligenza artificiale in tutti gli aspetti della vita, ma dobbiamo capire meglio le implicazioni”, ha affermato il co-autore Mor Naaman, professore presso l’Istituto Jacobs Technion-Cornell presso Cornell Tech e delle scienze dell’informazione presso il Bowers College of Computing and Information Science della Cornell Ann S. Bowers. “Oltre ad aumentare l’efficienza e la creatività, potrebbero esserci altre conseguenze per gli individui e anche per la nostra società, come cambiamenti nel linguaggio e nelle opinioni”.
Sebbene altri abbiano esaminato come i modelli di linguaggio di grandi dimensioni come ChatGPT possano creare annunci persuasivi e messaggi politici, questo è il primo studio a dimostrare che il processo di scrittura con uno strumento alimentato dall’IA può influenzare le opinioni di una persona. Jakesch ha presentato lo studio, intitolato “Co-Writing with Opinionated Language Models Affects Users’ Views”, alla Conferenza CHI 2023 sui Fattori Umani nei Sistemi Informatici ad aprile, dove il documento ha ricevuto una menzione d’onore.
Per capire come le persone interagiscono con gli assistenti di scrittura basati sull’IA, Jakesch ha indirizzato un grande modello di linguaggio ad avere opinioni positive o negative sui social media. I partecipanti hanno scritto i loro paragrafi, da soli o con uno degli assistenti di opinione, su una piattaforma da lui creata che simula un sito web di social media. La piattaforma raccoglie dati dai partecipanti mentre scrivono, come quali suggerimenti dell’IA accettano e quanto tempo impiegano per comporre il paragrafo.
Le persone che hanno scritto insieme all’assistente AI pro-social media hanno composto più frasi che argomentavano che i social media sono positivi, e viceversa, rispetto ai partecipanti senza assistente di scrittura, come determinato da giudici indipendenti. Questi partecipanti erano anche più propensi a professare l’opinione del loro assistente in un sondaggio di follow-up.
I ricercatori hanno esplorato la possibilità che le persone accettassero semplicemente i suggerimenti dell’IA per completare più velocemente il compito. Ma anche i partecipanti che hanno impiegato diversi minuti per comporre i loro paragrafi hanno formulato affermazioni fortemente influenzate. Il sondaggio ha rivelato che la maggioranza dei partecipanti non ha nemmeno notato che l’IA era parziale e non si è resa conto di essere stata influenzata.
“Il processo di scrittura insieme non sembra davvero che mi stiano persuadendo”, ha detto Naaman. “Sembra che stia facendo qualcosa di molto naturale e organico: sto esprimendo i miei pensieri con un po’ di aiuto”.
Ripetendo l’esperimento con un argomento diverso, il team di ricerca ha nuovamente osservato che i partecipanti sono stati influenzati dagli assistenti. Ora il team sta indagando su come questa esperienza crei il cambiamento e quanto a lungo gli effetti perdurino.
Proprio come i social media hanno cambiato il panorama politico facilitando la diffusione di disinformazione e la formazione di camere di risonanza, strumenti di scrittura basati sull’IA con pregiudizi potrebbero produrre spostamenti simili di opinione, a seconda degli strumenti scelti dagli utenti. Ad esempio, alcune organizzazioni hanno annunciato di pianificare lo sviluppo di un’alternativa a ChatGPT, progettata per esprimere punti di vista più conservatori.
Queste tecnologie meritano una maggiore discussione pubblica su come potrebbero essere utilizzate impropriamente e su come dovrebbero essere monitorate e regolate, hanno affermato i ricercatori.
“Più potenti diventano queste tecnologie e più le inseriamo profondamente nella trama sociale delle nostre società”, ha detto Jakesch, “più attenti potremmo voler essere su come stiamo governando i valori, le priorità e le opinioni che in esse sono incorporate”.
Al lavoro hanno contribuito Advait Bhat di Microsoft Research, Daniel Buschek dell’Università di Bayreuth e Lior Zalmanson dell’Università di Tel Aviv.
Il supporto per il lavoro è stato fornito dalla National Science Foundation, dalla Fondazione Accademica Nazionale Tedesca e dal Ministero bavarese della scienza e delle arti.