I progressi nei modelli di linguaggi di grandi dimensioni basati sull’intelligenza artificiale promettono nuove applicazioni in un futuro prossimo e lontano, con programmatori, scrittori, esperti di marketing e altri professionisti che trarranno vantaggio da LLM avanzati. Ma un nuovo studio condotto da scienziati della Stanford University, della Georgetown University e di OpenAI evidenzia l’impatto che gli LLM possono avere sul lavoro di attori che cercano di manipolare l’opinione pubblica attraverso la diffusione di contenuti online.

Lo studio rileva che gli LLM possono potenziare le operazioni di influenza politica consentendo la creazione di contenuti su larga scala, riducendo i costi del lavoro e rendendo più difficile il rilevamento dell’attività dei bot.

 
Lo studio è stato condotto dopo che il Center for Security and Emerging Technology (CSET), OpenAI e lo Stanford Internet Observatory (SIO) della Georgetown University hanno ospitato insieme un seminario nel 2021 per esplorare il potenziale uso  improprio degli LLM a fini di propaganda. E mentre gli LLM continuano a migliorare, c’è la preoccupazione che gli attori malintenzionati abbiano più motivi per usarli per scopi nefasti.

Lo studio rileva che gli LLM hanno un impatto su attori, comportamenti e contenuti
Le operazioni di influenza sono definite da tre elementi chiave: attori, comportamenti e contenuto. Lo studio di Stanford, Georgetown e OpenAI rileva che gli LLM possono avere un impatto su tutti e tre gli aspetti.

 

Con gli LLM che semplificano la generazione di lunghi tratti di testo coerente, più attori troveranno interessante utilizzarli per operazioni di influenza. La creazione di contenuti in precedenza richiedeva scrittori umani, il che è costoso, si adatta male e può essere rischioso quando gli attori cercano di nascondere le loro operazioni. Gli LLM non sono perfetti e possono commettere errori stupidi durante la generazione del testo. Ma uno scrittore abbinato a un LLM può diventare molto più produttivo modificando il testo generato dal computer invece di scrivere da zero. Ciò rende gli scrittori molto più produttivi e riduce il costo del lavoro.

“Sosteniamo che per i propagandisti, gli strumenti di generazione del linguaggio saranno probabilmente utili: possono ridurre i costi di generazione dei contenuti e ridurre il numero di esseri umani necessari per creare lo stesso volume di contenuti”, il dott. Josh A. Goldstein, coautore di ha detto a VentureBeat il ricercatore e ricercatore del progetto CyberAI presso CSET.

 
In termini di comportamento, non solo gli LLM possono potenziare le attuali operazioni di influenza, ma possono anche consentire nuove tattiche. Ad esempio, gli avversari possono utilizzare gli LLM per creare contenuti personalizzati dinamici su larga scala o creare interfacce di conversazione come i chatbot in grado di interagire direttamente con molte persone contemporaneamente. La capacità degli LLM di produrre contenuti originali renderà anche più facile per gli attori nascondere le loro campagne di influenza.

“Poiché gli strumenti di generazione del testo creano un output originale ogni volta che vengono eseguiti, le campagne che si basano su di essi potrebbero essere più difficili da individuare per i ricercatori indipendenti perché non si affideranno al cosiddetto ‘copypasta’ (o copia e incolla del testo ripetuto online conti)”, ha detto Goldstein.

Molto ancora non lo sappiamo
Nonostante le loro prestazioni impressionanti, gli LLM sono limitati in molti modi critici. Ad esempio, anche i LLM più avanzati tendono a fare affermazioni assurde e perdono la loro coerenza man mano che il loro testo diventa più lungo di poche pagine. 

Mancano inoltre di contesto per gli eventi che non sono inclusi nei loro dati di addestramento e riaddestrarli è un processo complicato e costoso. Ciò rende difficile utilizzarli per campagne di influenza politica che richiedono commenti su eventi in tempo reale. 

 
Ma queste limitazioni non si applicano necessariamente a tutti i tipi di operazioni di influenza, ha affermato Goldstein.

“Per le operazioni che coinvolgono testi di forma più lunga e cercano di persuadere le persone di una particolare narrativa, potrebbero avere più importanza. Per le operazioni che cercano principalmente di ‘allagare la zona’ o di distrarre le persone, potrebbero essere meno importanti”, ha affermato.

E mentre la tecnologia continua a maturare, alcune di queste barriere potrebbero essere eliminate. Ad esempio, ha affermato Goldstein, il rapporto è stato redatto principalmente prima del rilascio di ChatGPT, che ha mostrato come le nuove tecniche di raccolta e formazione dei dati possono migliorare le prestazioni degli LLM. 

 
Nel documento, i ricercatori prevedono come alcuni degli sviluppi attesi potrebbero rimuovere alcune di queste barriere. Ad esempio, gli LLM diventeranno più affidabili e utilizzabili man mano che gli scienziati svilupperanno nuove tecniche per ridurre i loro errori e adattarli a nuovi compiti. Ciò può incoraggiare più attori a utilizzarli per operazioni di influenza.

Gli autori dell’articolo avvertono anche di “incognite critiche”. Ad esempio, gli scienziati hanno scoperto che man mano che gli LLM crescono, mostrano abilità emergenti . Mentre il settore continua a spingere verso modelli su larga scala, potrebbero emergere nuovi casi d’uso che possono avvantaggiare i propagandisti e influenzare le campagne.

E con maggiori interessi commerciali negli LLM, il campo è destinato ad avanzare molto più velocemente nei prossimi mesi e anni. Ad esempio, lo sviluppo di strumenti pubblicamente disponibili per addestrare, eseguire e perfezionare i modelli linguistici ridurrà ulteriormente le barriere tecniche dell’utilizzo di LLM per campagne di influenza.

Implementazione di una kill chain 
 
Gli autori del documento suggeriscono un quadro di “kill chain” per i tipi di strategie di mitigazione che possono prevenire l’uso improprio degli LLM per le campagne di propaganda.

“Possiamo iniziare ad affrontare ciò che è necessario per combattere l’abuso ponendo una semplice domanda: di cosa avrebbe bisogno un propagandista per condurre con successo un’operazione di influenza con un modello linguistico? Partendo da questa prospettiva, abbiamo individuato quattro punti di intervento: costruzione del modello, accesso al modello, diffusione dei contenuti e formazione delle credenze. In ogni fase, esiste una gamma di possibili mitigazioni”, ha affermato Goldstein.

Ad esempio, nella fase di costruzione, gli sviluppatori potrebbero utilizzare tecniche di filigrana per rendere rilevabili i dati creati dai modelli generativi. Allo stesso tempo, i governi possono imporre il controllo degli accessi all’hardware AI.

Nella fase di accesso, i provider LLM possono imporre restrizioni di utilizzo più rigorose sui modelli ospitati e sviluppare nuove norme sul rilascio dei modelli.

Sulla diffusione dei contenuti, le piattaforme che forniscono servizi di pubblicazione (ad es. piattaforme di social media, forum, siti Web di e-commerce con funzionalità di recensione, ecc.) possono imporre restrizioni come la “prova dell’identità personale”, che renderà difficile per un utente basato sull’intelligenza artificiale sistema per inviare contenuti su larga scala.

 
Sebbene il documento fornisca diversi esempi di tali tecniche di mitigazione, Goldstein ha sottolineato che il lavoro non è completo.

“Solo perché una mitigazione è possibile, non significa che debba essere implementata. Coloro che sono in grado di implementare, che si tratti di aziende tecnologiche, del governo o dei ricercatori, dovrebbero valutare l’opportunità “, ha affermato. 

Alcune domande che devono essere poste includono: una mitigazione è tecnicamente fattibile? Socialmente fattibile? Qual è il rischio al ribasso? Che impatto avrà?

“Abbiamo bisogno di più ricerca, analisi e test per affrontare meglio quali mitigazioni sono desiderabili e per evidenziare le mitigazioni che abbiamo trascurato”, ha affermato Goldstein. “Non abbiamo una soluzione proiettile d’argento.”

Di ihal