AI non allevia la sofferenza dei moderatori umani di Facebook

Non importa cosa affermano le aziende, l’IA non risolverà il problema della moderazione dei contenuti online. È una promessa che abbiamo sentito molte volte in passato , in particolare dal CEO di Facebook Mark Zuckerberg, ma gli esperti dicono che la tecnologia non è proprio lì e, in effetti, potrebbe non esserlo mai.

La maggior parte dei social network mantiene i contenuti indesiderati fuori dalle loro piattaforme utilizzando una combinazione di filtri automatici e moderatori umani. Come The Verge ha rivelato in una recente indagine , i moderatori umani lavorano spesso in condizioni altamente stressanti. I dipendenti devono fare clic su centinaia di elementi di contenuti segnalati ogni giorno – tutto, dall’omicidio agli abusi sessuali – e quindi decidere se violare o meno le regole di una piattaforma, spesso lavorando su programmi strettamente controllati e senza un’adeguata formazione o supporto.

Quando vengono presentate le sofferenze che le loro piattaforme stanno creando (così come altri problemi adiacenti alla moderazione, come il pregiudizio percepito), le aziende spesso affermano che più la tecnologia è la soluzione. Durante le sue audizioni di fronte al congresso dello scorso anno , per esempio, Zuckerberg ha citato più di 30 volte l’intelligenza artificiale come risposta a questa e ad altre questioni.

“AI è MacGuffin di Zuckerberg”, ha detto al Washington Post all’epoca James Grimmelmann, professore di diritto alla Cornell Tech . “Non risolverà i problemi di Facebook, ma risolverà quello di Zuckerberg: far assumere a qualcun altro la responsabilità”.

Quindi cosa sta facendo AI per Facebook e altre piattaforme in questo momento, e perché non può fare di più?

IL PROBLEMA DELL’AUTOMAZIONE DELLA CULTURA UMANA
Al momento, i sistemi automatizzati che utilizzano l’intelligenza artificiale e l’apprendimento automatico stanno certamente facendo un po ‘di aiuto con la moderazione. Agiscono come sistemi di triage, ad esempio, spingono i contenuti sospetti ai moderatori umani e sono in grado di eliminare da soli alcune cose indesiderate.

Ma il modo in cui lo fanno è relativamente semplice. O utilizzando il riconoscimento visivo per identificare un’ampia categoria di contenuti (come “nudità umana” o “pistole”), che è incline agli errori; o abbinando il contenuto a un indice di articoli vietati, che richiede agli esseri umani di creare detto indice in primo luogo.

Quest’ultimo approccio viene utilizzato per sbarazzarsi del materiale di violazione più evidente; cose come video di propaganda di organizzazioni terroristiche, materiale di abuso di minori e contenuti protetti da copyright. In ogni caso, il contenuto è identificato dagli esseri umani e “hash”, il che significa che è trasformato in una stringa unica di numeri che è più veloce da elaborare. La tecnologia è ampiamente affidabile, ma può ancora portare a problemi. Il sistema ContentID di YouTube, ad esempio, ha contrassegnato caricamenti come il rumore bianco e il canto degli uccelli come violazione del copyright in passato.

I sistemi di intelligenza artificiale vengono addestrati per analizzare nuovi tipi di immagini, come i meme. Immagine: Facebook
Le cose diventano molto più complicate quando il contenuto stesso non può essere facilmente classificato anche dagli umani. Questo può includere contenuti che gli algoritmi certamente riconoscono, ma che ha molte sfumature di significato (come la nudità – conta l’allattamento al seno?) O che sono molto dipendenti dal contesto, come molestie, notizie false, disinformazione e così via. Nessuna di queste categorie ha definizioni semplici e per ognuna di esse ci sono casi limite senza status obiettivo, esempi in cui lo sfondo di qualcuno, l’etica personale o semplicemente il loro stato d’animo in un dato giorno potrebbero fare la differenza tra una definizione e l’altra.

CHIEDIAMO ALL’IA DI COMPRENDERE LE COMPLESSITÀ DELLA CULTURA UMANA
Il problema con il tentativo di convincere le macchine a capire questo tipo di contenuto, dice Robyn Caplan, un ricercatore affiliato presso la società e la società senza scopo di lucro, è che essenzialmente chiede loro di capire la cultura umana – un fenomeno troppo fluido e sottile da descrivere in regole semplici, leggibili dalla macchina.

“[Questo contenuto] tende a coinvolgere il contesto specifico per chi parla”, dice Caplan a The Verge . “Ciò significa cose come dinamiche del potere, relazioni razziali, dinamiche politiche, dinamiche economiche.” Dal momento che queste piattaforme operano a livello globale, anche le diverse norme culturali devono essere prese in considerazione, afferma, così come i diversi regimi giuridici.

Un modo per sapere se il contenuto sarà difficile da classificare, dice Eric Goldman, professore di diritto presso l’Università di Santa Clara, è chiedere se comprendere o meno richiede “informazioni estrinseche” – cioè informazioni al di fuori dell’immagine, video, audio o testo.

“Ad esempio, i filtri non sono in grado di capire l’incitamento all’odio, la parodia o la cronaca di eventi controversi, perché gran parte della determinazione dipende dal contesto culturale e da altre informazioni estrinseche”, dice Goldman a The Verge . “Analogamente, i filtri non sono adatti a determinare quando una repubblicazione dei contenuti è un uso corretto secondo la legge sul copyright degli Stati Uniti perché la determinazione dipende da informazioni estrinseche quali le dinamiche di mercato, il materiale di origine originale e le altre attività del caricatore.”

FINO A CHE PUNTO POSSIAMO SPINGERE I SISTEMI IA?
Ma l’IA come campo si sta muovendo molto rapidamente. Quindi gli algoritmi futuri saranno in grado di classificare in modo affidabile questo tipo di contenuti in futuro? Goldman e Caplan sono scettici.

L’intelligenza artificiale migliorerà la comprensione del contesto, afferma Goldman, ma non è evidente che l’IA sarà presto in grado di farlo meglio di un umano. “L’IA non sostituirà […] i revisori umani per il prossimo futuro”, afferma.

Caplan è d’accordo, e sottolinea che finché gli umani discutono su come classificare questo tipo di materiale, quali possibilità hanno le macchine? “Non esiste una soluzione semplice”, afferma. “Continueremo a vedere problemi”.

Vale la pena notare, tuttavia, che l’intelligenza artificiale non è completamente senza speranza. I progressi nell’apprendimento approfondito di recente hanno notevolmente aumentato la velocità e la competenza con cui i computer classificano le informazioni in immagini, video e testo. Arun Gandhi, che lavora per NanoNets, una società che vende strumenti di moderazione AI per le aziende online, dice che questo non dovrebbe essere scontato.

“Un sacco di attenzione si concentra su quanto sia traumatico o inquietante il lavoro del moderatore dei contenuti, il che è assolutamente giusto”, dice Gandhi a The Verge . “Ma toglie anche il fatto che stiamo facendo progressi con alcuni di questi problemi”.

I PROGRESSI SONO STATI FATTI, MA NON È CHIARO FINO A DOVE PUÒ ARRIVARE
I sistemi di apprendimento automatico necessitano di un gran numero di esempi per apprendere come sono i contenuti offensivi, spiega Gandhi, il che significa che questi sistemi miglioreranno negli anni a venire man mano che i set di dati di formazione diventano più grandi. Rileva che alcuni dei sistemi attualmente in uso sembrerebbero impossibilmente veloci e precisi anche solo pochi anni fa. “Sono fiducioso, visti i miglioramenti che abbiamo apportato negli ultimi cinque, sei anni, che ad un certo punto saremo in grado di automatizzare completamente la moderazione”, dice Gandhi.

Altri non sarebbero d’accordo, tuttavia, sottolineando che i sistemi di intelligenza artificiale non hanno ancora padroneggiato non solo il contesto politico e culturale (che sta cambiando di mese in mese, ma anche di paese in paese), ma anche concetti umani fondamentali come il sarcasmo e l’ironia. Getta i vari modi in cui i sistemi di IA possono essere ingannati da semplici hack, e una soluzione di IA completa sembra improbabile.

Sandra Wachter, avvocato e ricercatrice presso l’Internet Institute di Oxford, afferma che ci sono anche ragioni legali per cui gli esseri umani dovranno essere tenuti al corrente della moderazione dei contenuti.

“In Europa disponiamo di un quadro per la protezione dei dati [GDPR] che consente alle persone di contestare determinate decisioni prese da algoritmi. Dice anche che la trasparenza nel processo decisionale è importante [e] che hai il diritto di sapere cosa sta succedendo ai tuoi dati “, dice Wachter a The Verge . Ma gli algoritmi non riescono a spiegare perché prendono certe decisioni, dice, il che rende questi sistemi opachi e potrebbero portare le società tecnologiche a farsi causa.

RELAZIONATO

Le vite segrete dei moderatori di Facebook in America
Wachter afferma che i reclami relativi al GDPR sono già stati presentati e che è probabile che ne seguano altri. “Quando sono in gioco diritti più elevati, come il diritto alla privacy e alla libertà di parola, […] è importante avere una sorta di ricorso”, dice. “Quando devi fare una chiamata di giudizio che influisce sulla libertà di altre persone devi avere un essere umano nel ciclo che può esaminare l’algoritmo e spiegare queste cose”.

“UNA SFIDA CHE NESSUN ALTRO SISTEMA MULTIMEDIALE HA MAI DOVUTO AFFRONTARE”.
Come nota Caplan, ciò che le aziende tecnologiche possono fare – con i loro enormi margini di profitto e il dovere di diligenza nei confronti di coloro che sono impiegati – è migliorare le condizioni di lavoro per i moderatori umani. “Al minimo indispensabile abbiamo bisogno di standard di lavoro migliori”, dice. Come ha notato Casey Newton nel suo rapporto, mentre aziende come Facebook si sforzano di premiare adeguatamente i moderatori umani, offrendo loro benefici per la salute e salari superiori alla media, spesso sono superati da una spinta incessante verso una migliore accuratezza e più decisioni.

Caplan afferma che la pressione sulle aziende tecnologiche per risolvere il problema dell’automazione dei contenuti potrebbe anche contribuire a questo stato di cose. “Questo è quando si verificano problemi in cui i lavoratori sono tenuti a standard di precisione impossibili”, dice. La necessità di trovare una soluzione il più presto possibile gioca nell’atteggiamento “mossa veloce e rompi le cose” spesso diffamato della Silicon Valley. E anche se questo può essere un ottimo modo di pensare quando si lancia un’applicazione, è una mentalità terribile per un’azienda che gestisce le sottigliezze del discorso globale.

“E stiamo dicendo che forse dovremmo usare le macchine per affrontare questo problema”, afferma Caplan, “ma ciò porterà a una serie di problemi completamente nuovi “.

Vale anche la pena ricordare che questo è un problema nuovo e unico. Mai prima d’ora le piattaforme erano così grandi e densi di informazioni come Facebook e YouTube. Questi sono luoghi in cui chiunque, ovunque nel mondo, in qualsiasi momento, può caricare e condividere qualsiasi contenuto desideri. La gestione di questo regno semi-pubblico vasto e in continua evoluzione è “una sfida che nessun altro sistema multimediale ha mai dovuto affrontare”, afferma Caplan.

Quello che sappiamo è che lo status quo non funziona. Gli umani che hanno il compito di ripulire il caos di Internet sono miserabili e gli umani che creano quel casino non stanno molto meglio. L’intelligenza artificiale non ha abbastanza intelligenza per affrontare il problema e l’intelligenza umana è tesa a trovare soluzioni. Qualcosa deve dare.

Di ihal

Lascia un commento

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi