Il modello di intelligenza artificiale può identificare gli spargitori di disinformazione prima che agiscano
Un modello di intelligenza artificiale creato dai ricercatori dell’Università di Sheffield può potenzialmente determinare quali utenti di Twitter pubblicheranno disinformazione prima che lo faccia effettivamente. Se il modello si dimostrerà affidabile, potrebbe essere utilizzato per integrare i metodi esistenti di lotta alla disinformazione sui social media.
Secondo TechXplore , lo studio è stato condotto da ricercatori del Dipartimento di Informatica dell’Università di Sheffield, tra cui il dottor Nikos Aletras e Yida Mu. Lo studio è stato pubblicato sulla rivista PeerJ e descrive in dettaglio i metodi utilizzati per prevedere se un utente dei social media può diffondere disinformazione pubblicando contenuti da fonti di notizie inaffidabili.
Il team di ricerca ha raccolto oltre 1 milione di tweet da oltre 6000 utenti di Twitter, tutti disponibili pubblicamente. Il team ha applicato tecniche di elaborazione del linguaggio naturale per preparare i dati per l’addestramento di un modello di intelligenza artificiale. L’intelligenza artificiale era un modello di classificazione binaria, che identificava gli utenti come suscettibili di condividere informazioni da fonti inaffidabili o improbabili. Dopo che il modello è stato addestrato sui dati, è stato in grado di raggiungere una precisione di classificazione di circa il 79,7%.
Analizzando i risultati delle prestazioni del modello, i ricercatori hanno scoperto che gli utenti che utilizzavano molto un linguaggio scortese e twittavano costantemente su religione e politica avevano maggiori probabilità di pubblicare informazioni da fonti inaffidabili. In particolare, è stato fatto un uso massiccio di parole come “liberale”, “media”, “governo”, “Israele” e “Islam”. Nel frattempo, gli utenti che hanno pubblicato informazioni da fonti affidabili tendevano a utilizzare parole come “io”, “voglio”, “voglio”, “umore”, “eccitato” e “compleanno”. Oltre a questo, in genere condividevano storie sulle loro vite personali, come le interazioni con gli amici, le loro emozioni o informazioni sui loro hobby.
I risultati dello studio potrebbero aiutare le società di social media come Facebook, Reddit e Twitter a progettare nuovi modi per combattere la diffusione della disinformazione online. La ricerca potrebbe anche aiutare psicologi e scienziati sociali a comprendere meglio il comportamento che porta alla dilagante diffusione della disinformazione in un social network.
Come ha spiegato Aletras secondo TechXplore, i social media si sono trasformati in uno dei modi predominanti con cui le persone ricevono le loro notizie. Milioni di utenti in tutto il mondo ricevono le loro notizie ogni giorno tramite Facebook e Twitter, ma queste piattaforme sono diventate anche strumenti per diffondere disinformazione nella società. Aletras ha continuato spiegando che l’identificazione affidabile di determinate tendenze nel comportamento degli utenti potrebbe aiutare a frenare la disinformazione. Come ha spiegato Aletras, esisteva una “correlazione tra l’uso di un linguaggio scortese e la diffusione di contenuti inaffidabili può essere attribuita all’elevata ostilità politica online”.
Secondo Mu, l’analisi del comportamento degli utenti che condividono informazioni inaffidabili può aiutare le piattaforme di social media integrando i metodi di verifica dei fatti esistenti e modellando la disinformazione a livello di utente. Come ha detto Mu tramite TechXplore:
“Studiare e analizzare il comportamento degli utenti che condividono contenuti da fonti di notizie inaffidabili può aiutare le piattaforme di social media a prevenire la diffusione di notizie false a livello di utente, integrando i metodi di verifica dei fatti esistenti che funzionano a livello di post o di fonte di notizie”.
La ricerca condotta da Aletras e Mu potrebbe essere un esempio dell’utilizzo dell’IA per combattere la disinformazione generata dall’IA. Gli ultimi mesi hanno visto una ripresa della disinformazione che circonda la politica locale e nazionale, con gran parte dei contenuti generati e diffusi dagli algoritmi di intelligenza artificiale. Le reti neurali profonde sono state impiegate per costruire fotografie realistiche e profili di account falsi che fungono da divulgatori di notizie false. La ricerca con cui Aletras e Mu sono impegnati potrebbe aiutare le società di social media a capire quali account sono falsi, account bot creati con lo scopo di diffondere propaganda dannosa e disinformazione.