Gli utenti si fidano dell’IA tanto quanto gli esseri umani per la segnalazione di contenuti problematici  Gli utenti dei social media possono fidarsi dell’intelligenza artificiale — AI — tanto quanto gli editori umani per segnalare incitamento all’odio e contenuti dannosi, secondo i ricercatori della Penn State. 

I ricercatori hanno affermato che quando gli utenti pensano agli attributi positivi delle macchine, come la loro precisione e obiettività, mostrano più fiducia nell’IA. Tuttavia, se agli utenti viene ricordata l’incapacità delle macchine di prendere decisioni soggettive, la loro fiducia è inferiore.

I risultati potrebbero aiutare gli sviluppatori a progettare migliori sistemi di gestione dei contenuti basati sull’intelligenza artificiale in grado di gestire le grandi quantità di informazioni attualmente generate evitando la percezione che il materiale sia stato censurato o classificato in modo impreciso, ha affermato S. Shyam Sundar, professore di James P. Jimirro di Media Effects nel  Donald P. Bellisario College of Communications  e condirettore del  Media Effects Research Laboratory .

“C’è un disperato bisogno di moderazione dei contenuti sui social media e, più in generale, sui media online”, ha affermato Sundar, che è anche un affiliato  dell’Institute for Computational and Data Sciences della Penn State . “Nei media tradizionali, abbiamo redattori di notizie che fungono da guardiani. Ma online, i cancelli sono così spalancati e il gatekeeping non è necessariamente fattibile per gli esseri umani, specialmente con il volume di informazioni generate. Quindi, con il settore che si sta spostando sempre più verso soluzioni automatizzate, questo studio esamina la differenza tra moderatori di contenuti umani e automatizzati, in termini di come le persone rispondono ad essi”.

Sia gli editor umani che quelli di intelligenza artificiale presentano vantaggi e svantaggi. Gli esseri umani tendono a valutare più accuratamente se i contenuti sono dannosi, ad esempio quando sono razzisti o potenzialmente potrebbero provocare autolesionismo, secondo  Maria D. Molina , assistente professore di pubblicità e pubbliche relazioni, Stato del Michigan, che è la prima autrice dello studio . Le persone, tuttavia, non sono in grado di elaborare le grandi quantità di contenuti che ora vengono generati e condivisi online.

D’altra parte, mentre gli editori di intelligenza artificiale possono analizzare rapidamente i contenuti, le persone spesso diffidano di questi algoritmi per fornire raccomandazioni accurate e temono che le informazioni possano essere censurate.

“Quando pensiamo alla moderazione automatizzata dei contenuti, viene sollevata la questione se gli editori di intelligenza artificiale stiano pregiudicando la libertà di espressione di una persona”, ha affermato Molina. “Questo crea una dicotomia tra il fatto che abbiamo bisogno della moderazione dei contenuti – perché le persone condividono tutti questi contenuti problematici – e, allo stesso tempo, le persone sono preoccupate per la capacità dell’IA di moderare i contenuti. Quindi, in definitiva, vogliamo sapere come possiamo creare moderatori di contenuti di intelligenza artificiale di cui le persone possano fidarsi in un modo che non interferisca con quella libertà di espressione”.

Trasparenza e trasparenza interattiva
Secondo Molina, unire le persone e l’IA nel processo di moderazione può essere un modo per costruire un sistema di moderazione affidabile. Ha aggiunto che la trasparenza, o segnalare agli utenti che una macchina è coinvolta nella moderazione, è un approccio per migliorare la fiducia nell’IA. Tuttavia, consentire agli utenti di offrire suggerimenti alle IA, che i ricercatori chiamano “trasparenza interattiva”, sembra aumentare ulteriormente la fiducia degli utenti.

Per studiare la trasparenza e la trasparenza interattiva, tra le altre variabili, i ricercatori hanno reclutato 676 partecipanti per interagire con un sistema di classificazione dei contenuti. I partecipanti sono stati assegnati in modo casuale a una delle 18 condizioni sperimentali, progettate per testare in che modo la fonte di moderazione – AI, umana o entrambe – e la trasparenza – regolare, interattiva o senza trasparenza – potrebbero influenzare la fiducia del partecipante negli editor di contenuti di AI. I ricercatori hanno testato le decisioni di classificazione, indipendentemente dal fatto che il contenuto fosse classificato come “segnalato” o “non segnalato” per essere dannoso o odioso. Il contenuto del test “dannoso” riguardava l’ideazione suicidaria, mentre il contenuto del test “odioso” includeva l’incitamento all’odio.

Tra le altre scoperte, i ricercatori hanno scoperto che la fiducia degli utenti dipende dal fatto che la presenza di un moderatore dei contenuti dell’IA invochi attributi positivi delle macchine, come la loro accuratezza e obiettività, o attributi negativi, come la loro incapacità di esprimere giudizi soggettivi sulle sfumature nell’essere umano linguaggio.

Dare agli utenti la possibilità di aiutare il sistema di intelligenza artificiale a decidere se le informazioni online sono dannose o meno può anche aumentare la loro fiducia. I ricercatori hanno affermato che i partecipanti allo studio che hanno aggiunto i propri termini ai risultati di un elenco di parole selezionate dall’IA utilizzate per classificare i post si fidavano dell’editor dell’IA tanto quanto si fidavano di un editor umano.

Preoccupazioni etiche
Sundar ha affermato che alleviare gli esseri umani dalla revisione dei contenuti va oltre il semplice dare ai lavoratori una tregua da un lavoro noioso. Assumere editori umani per il compito significa che questi lavoratori sono esposti a ore di immagini e contenuti odiosi e violenti, ha affermato.

“C’è un bisogno etico di moderazione automatizzata dei contenuti”, ha affermato Sundar, che è anche direttore del  Center for Socially Responsible Artificial Intelligence della Penn State . “C’è la necessità di proteggere i moderatori di contenuti umani, che svolgono un vantaggio sociale quando lo fanno, dall’esposizione costante a contenuti dannosi giorno dopo giorno”.

Secondo Molina, il lavoro futuro potrebbe guardare a come aiutare le persone non solo a fidarsi dell’IA, ma anche a capirla. Anche la trasparenza interattiva può essere una parte fondamentale della comprensione dell’IA, ha aggiunto.

“Qualcosa di veramente importante non è solo la fiducia nei sistemi, ma anche il coinvolgimento delle persone in un modo che comprendano effettivamente l’IA”, ha affermato Molina. “Come possiamo utilizzare questo concetto di trasparenza interattiva e altri metodi per aiutare le persone a comprendere meglio l’IA? Come possiamo presentare al meglio l’IA in modo che invochi il giusto equilibrio tra apprezzamento dell’abilità della macchina e scetticismo sui suoi punti deboli? Queste domande sono degne di ricerca”.

I ricercatori presentano le loro scoperte nell’attuale numero del  Journal of Computer-Mediated Communication .

Di ihal