Il modello statistico aiuta a rilevare la disinformazione sui social media
 

Un professore di matematica dell’American University, insieme al suo team di collaboratori, ha sviluppato L’apprendimento automatico è sempre più utilizzato per fermare la diffusione della disinformazione, ma c’è ancora un grosso ostacolo che riguarda il problema delle scatole nere che si verificano. Questo si riferisce a quando i ricercatori non capiscono come una macchina arriva alla stessa decisione dei formatori umani. 

Rilevare la disinformazione con i modelli statistici
Zois Boukouvalas, assistente professore presso il Dipartimento di matematica e statistica dell’AU, ha utilizzato un set di dati di Twitter con tweet di disinformazione su COVID-19 per dimostrare come i modelli statistici possono rilevare la disinformazione nei social media durante eventi importanti come una pandemia o un disastro. 

Boukouvalas e i suoi colleghi, tra cui la studentessa dell’AU Caitlin Moroney e la professoressa di informatica Nathalie Japkowics, hanno dimostrato come le decisioni del modello si allineano con quelle degli umani nella ricerca appena pubblicata .

“Vorremmo sapere cosa pensa una macchina quando prende decisioni, e come e perché è d’accordo con gli umani che l’hanno addestrata”, ha detto Boukouvalas. “Non vogliamo bloccare l’account dei social media di qualcuno perché il modello prende una decisione parziale”.

Il metodo utilizzato dal team è un tipo di apprendimento automatico che si basa sulle statistiche. I modelli statistici sono efficaci e forniscono un altro modo per combattere la disinformazione.

Il modello ha ottenuto prestazioni di previsione elevate e ha classificato un set di test di 112 tweet reali e di disinformazione con una precisione di quasi il 90%. 

“La cosa significativa di questa scoperta è che il nostro modello ha raggiunto la precisione offrendo allo stesso tempo trasparenza su come ha rilevato i tweet che erano disinformazione”, ha continuato Boukouvalas. “I metodi di deep learning non possono raggiungere questo tipo di accuratezza con la trasparenza.”

Formazione e preparazione del modello
I ricercatori si sono preparati per addestrare il modello prima di testarlo su un set di dati poiché le informazioni fornite dagli esseri umani possono introdurre pregiudizi e scatole nere. 

I tweet sono stati etichettati dai ricercatori come disinformazione o reali in base a una serie di regole predefinite sul linguaggio utilizzato nella disinformazione. Il team ha anche preso in considerazione le sfumature del linguaggio umano e le caratteristiche linguistiche legate alla disinformazione.

Prima di addestrare il modello, la professoressa socio-linguista Christine Mallinson dell’Università del Maryland Baltimore County ha identificato i tweet per gli stili di scrittura associati a disinformazione, pregiudizi e fonti meno affidabili nei media.

“Una volta aggiunti questi input nel modello, si cerca di comprendere i fattori sottostanti che portano alla separazione delle informazioni buone e cattive”, ha affermato Japkowicz. “Sta imparando il contesto e come interagiscono le parole.”

I ricercatori ora cercheranno di migliorare l’interfaccia utente del modello, nonché la sua capacità di rilevare la disinformazione nei post sui social media che includono immagini o altri contenuti multimediali. Il modello statistico sarà necessario per apprendere come una varietà di elementi diversi interagiscono tra loro per creare disinformazione.

Sia Boukouvalas che Japkowicz affermano che l’intelligenza umana e l’alfabetizzazione alle notizie sono fondamentali per fermare la diffusione della disinformazione. 

“Attraverso il nostro lavoro, progettiamo strumenti basati sull’apprendimento automatico per allertare ed educare il pubblico al fine di eliminare la disinformazione, ma crediamo fermamente che gli esseri umani debbano svolgere un ruolo attivo nel non diffondere disinformazione in primo luogo”, ha affermato Boukouvalas.

Di ihal