Perché AI non risolverà il problema delle notizie false di Facebook

La moderazione sarà sempre un problema su una piattaforma così grande

Facebook ha un sacco di problemi in questo momento, ma uno che sicuramente non risolverà rapidamente sono le Fake News. Poiché la base di utenti della compagnia è cresciuta fino a comprendere più di un quarto della popolazione mondiale, ha (comprensibilmente) fatto fatica a controllare ciò che tutti postano e condividono. Per Facebook, i contenuti indesiderati possono essere qualsiasi cosa, da lieve nudità a violenze gravi, ma ciò che è risultato essere il più sensibile e dannoso per l’azienda sono le bufale e la disinformazione – specialmente quando ha un orientamento politico.

Allora, che cosa farà Facebook al riguardo? Al momento, la società non sembra avere una strategia chiara. Invece, sta lanciando molto contro il muro e vedendo cosa funziona. Vengono assunti più moderatori umani (a febbraio di quest’anno ne avevano circa 7.500 ); fornisce agli utenti maggiori informazioni sul sito riguardo alle fonti di notizie ; e in una recente intervista, Mark Zuckerberg ha suggerito che la società potrebbe creare una sorta di organismo indipendente per decidere quale contenuto è kosher . (Che potrebbe essere visto come democratico, un abbandono di responsabilità, o un’ammissione che Facebook è fuori dalla sua profondità, a seconda del punto di vista.) Ma una cosa che gli esperti dicono che Facebook deve essere estremamente cauto sta dando tutto il lavoro a AI .

Finora, l’azienda sembra stia solo sperimentando questo approccio. Durante l’intervista con il New York Times sullo scandalo di Cambridge Analytica, Zuckerberg ha rivelato che per le elezioni speciali in Alabama lo scorso anno, la compagnia “ha implementato alcuni nuovi strumenti di intelligenza artificiale per identificare account falsi e notizie false”. Ha specificato che questi erano conti macedoni (un hub affermato nel settore delle finte notizie per fini di lucro), e in seguito la società ha chiarito che aveva implementato l’apprendimento automatico per individuare “comportamenti sospetti senza valutare il contenuto stesso”.

Questo è intelligente perché quando si tratta di notizie false, AI non è all’altezza del lavoro.

L’INTELLIGENZA ARTIFICIALE NON CAPISCE LE NOTIZIE FALSE PERCHÉ L’INTELLIGENZA ARTIFICIALE NON CAPISCE LA SCRITTURA
Le sfide legate alla creazione di un filtro automatico di notizie false con intelligenza artificiale sono numerose. Da un punto di vista tecnico, l’intelligenza artificiale fallisce su un certo numero di livelli perché non riesce a capire la scrittura umana come fanno gli umani. Può tirare fuori determinati fatti e fare un’analisi di sentimento rozza (indovinando se un contenuto è “felice” o “arrabbiato” basato su parole chiave), ma non può comprendere sottigliezze di tono, considerare il contesto culturale o chiamare qualcuno per confermare le informazioni. E anche se potesse fare tutto questo, eliminando la più evidente disinformazione e bufale, finirebbe per imbastire casi limite che confondono anche gli umani. Se le persone di sinistra e di destra non sono d’accordo su ciò che è o non è “notizie false”, non c’è modo di insegnare a una macchina a fare questo giudizio per noi.

In passato, gli sforzi per gestire le notizie false usando l’intelligenza artificiale hanno rapidamente incontrato problemi, come nel caso della Fake News Challenge, una competizione per le soluzioni di machine learning basate sull’affollamento tenutasi lo scorso anno. Dean Pomerleau della Carnegie Mellon University, che ha contribuito a organizzare la sfida, dice a The Verge che lui e il suo team hanno presto capito che l’IA non poteva affrontarlo da solo.

“In realtà abbiamo iniziato con un obiettivo più ambizioso di creare un sistema in grado di rispondere alla domanda” Sono notizie false, sì o no? ” Abbiamo capito subito che l’apprendimento automatico non era all’altezza del compito. ”

Pomerleau sottolinea che la comprensione era il problema principale e capire perché esattamente la lingua può essere così sfumata, soprattutto online, possiamo rivolgerci all’esempio impostato dai pod Tide. Come ha spiegato il professor Cornell James Grimmelmann in un recente saggio su notizie false e moderazione della piattaforma, l’abbraccio ironico di internet ha reso estremamente difficile giudicare la sincerità e l’intento. E Facebook e YouTube lo hanno scoperto da soli quando hanno provato a rimuovere i video della Tide Pod Challenge a gennaio di quest’anno.

Come spiega Grimmelmann, quando si trattava di decidere quali video eliminare, le società si sarebbero trovate di fronte a un dilemma. “È facile trovare video di persone che tengono in mano Tide Pod, osservando con simpatia quanto siano gustosi, e poi facendo un discorso tremante per non mangiarli perché sono pericolosi”, dice. “Questi sinceri annunci di servizio pubblico anti-pod stanno mangiando? O stanno surfando l’ondata di interesse per il pod-eating dichiarando superficialmente di denunciarlo? Entrambi contemporaneamente?

Grimmelmann chiama questo effetto “mimetic kayfabe”, prendendo in prestito il termine pro-wrestling per la volontaria sospensione dell’incredulità da parte del pubblico e dei lottatori. Dice anche che questa opacità di significato non è limitata alla cultura dei meme, ed è stata abbracciata dai partigiani politici, spesso responsabili della creazione e della condivisione di notizie false. Pizzagate ne è l’esempio perfetto, dice Grimmelmann, poiché è “contemporaneamente una vera teoria del complotto, una gioiosa mascherata di una teoria del complotto, e un meme dispregiativo sulle teorie della cospirazione”.

Quindi, se Facebook avesse scelto di bloccare qualsiasi articolo pizzicato durante le elezioni del 2016, sarebbe probabilmente stato colpito da lamentele non solo sulla censura, ma anche proteste sul fatto che tali storie fossero “solo uno scherzo”. Gli estremisti sfruttano frequentemente questa ambiguità, come era meglio mostrato nella guida allo stile del sito neo-nazista The Daily Stormer . Il fondatore Andrew Anglin ha consigliato agli aspiranti scrittori “il non-tartarugato non dovrebbe essere in grado di dire se stiamo scherzando o meno”, prima di chiarire che non lo sono: “Questo è ovviamente uno stratagemma e in realtà voglio i gas kike. Ma non è né qui né lì. ”

Considerando questa complessità, non c’è da meravigliarsi che la Fake News Challenge di Pomerleau abbia finito per chiedere ai team di completare un compito più semplice: creare un algoritmo in grado di individuare gli articoli che trattano lo stesso argomento. Qualcosa si è rivelato essere abbastanza bravo a.

Con questo strumento un umano potrebbe taggare una storia come notizia falsa (ad esempio, sostenendo che una certa celebrità sia morta) e quindi l’algoritmo avrebbe eliminato qualsiasi copertura ripetendo la menzogna. “Abbiamo parlato con i controllori dei fatti reali e ci siamo resi conto che sarebbero stati coinvolti per un po ‘di tempo”, afferma Pomerleau. “Quindi il meglio che potremmo fare nella comunità di apprendimento automatico sarebbe di aiutarli a svolgere il loro lavoro.”

ANCHE CON I CONTROLLORI DEI FATTI UMANI AL SEGUITO, FACEBOOK SI BASA SU ALGORITMI
Questo sembra essere l’approccio preferito di Facebook. Per le elezioni italiane di quest’anno, ad esempio, la società ha ingaggiato ispettori indipendenti per segnalare notizie false e bufale. I collegamenti problematici non sono stati cancellati, ma quando sono stati condivisi da un utente sono stati taggati con l’etichetta “Contro i dittatori di fatti di terze parti”. Sfortunatamente, anche questo approccio ha problemi, con un recente rapporto delColumbia Journalism Review che mette in evidenza molti dei fact-checker frustrazioni con Facebook. I giornalisti coinvolti hanno affermato che spesso non è chiaro il motivo per cui gli algoritmi di Facebook dicevano loro di controllare determinate storie, mentre i siti noti per diffondere bugie e teorie cospirative (come InfoWars ) non sono mai stati controllati affatto.

Tuttavia, c’è sicuramente un ruolo per gli algoritmi in tutto questo. E anche se l’intelligenza artificiale non può fare nulla di pesante nell’eliminare notizie false, può filtrarle nello stesso modo in cui lo spam viene filtrato dalla tua casella di posta. Per esempio, qualsiasi cosa con cattiva ortografia e grammatica può essere eliminata; o siti che si basano sull’imitazione di punti vendita legittimi per invogliare i lettori. E come Facebook ha mostrato con il suo targeting dei conti macedoni “che stavano cercando di diffondere notizie false” durante le elezioni speciali in Alabama, può essere relativamente facile indirizzare notizie false quando provengono da problemi noti.

Gli esperti dicono, però, che è il limite delle attuali capacità di IA. “Questo genere di talpa potrebbe aiutare a filtrare adolescenti ricchi di fast-fast-da Tbilisi, ma è improbabile che produca reati coerenti ma su larga scala come InfoWars “, Mor Naaman, professore associato di scienze dell’informazione alla Cornell Tech , racconta The Verge . Aggiunge che anche questi filtri più semplici possono creare problemi. “La classificazione è spesso basata su modelli linguistici e altri semplici segnali, che possono” catturare “onesti editori indipendenti e locali insieme a produttori di notizie false e disinformazione”, afferma Naaman.

E anche qui, c’è un potenziale dilemma per Facebook. Anche se per evitare accuse di censura, il social network dovrebbe essere aperto sui criteri che i suoi algoritmi usano per individuare notizie false, se è troppo aperto le persone possono giocare al sistema, aggirando i suoi filtri.

Per Amanda Levendowski, una professoressa alla legge della New York University, questo è un esempio di ciò che lei chiama “Valley Fallacy”. Parlando con The Verge sulla moderazione dell’IA di Facebook suggerisce che questo è un errore comune “, dove le aziende iniziano a dire:” Abbiamo un problema, dobbiamo fare qualcosa, questo è qualcosa, quindi dobbiamo fare questo, ‘senza considerare attentamente se questo potrebbe creare problemi nuovi o diversi. “Levendowski aggiunge che nonostante questi problemi, ci sono molte ragioni per cui le aziende tecnologiche continueranno a perseguire La moderazione dell’IA, che va dal “miglioramento delle esperienze degli utenti alla mitigazione dei rischi di responsabilità legale”.

Queste sono sicuramente delle tentazioni per Zuckerberg, ma anche in quel caso, sembra che appoggiarsi troppo all’IA per risolvere i suoi problemi di moderazione non sarebbe saggio. E non qualcosa che vorrebbe spiegare al Congresso la prossima settimana.

Di ihal

Lascia un commento