Moderazione dei contenuti online: per AI o no

La scorsa settimana, YouTube ha deciso di portare più moderatori umani a esaminare i contenuti sulla piattaforma di streaming. In un’intervista , il Chief Product Officer di YouTube Neal Mohan ha affermato che la mancanza di supervisione umana ha indotto i moderatori basati su macchine a rimuovere ben 11 milioni di video, il che non ha infranto nessuna delle linee guida della community. Mohan ha detto: “Anche 11 milioni sono una frazione molto, molto piccola, minuscola dei video complessivi su YouTube. . . ma era un numero maggiore rispetto al passato. ”

Va notato che YouTube , in un lungo post sul blog, nel marzo di quest’anno, ha affermato che avrebbero implementato più moderatori basati su computer e AI per la revisione del contenuto senza alcun intervento umano. Ciò è stato fatto tenendo conto delle nuove condizioni di lavoro nella pandemia . Anche Twitter aveva annunciato una decisione simile.

Quindi, qual è la moderazione migliore, umana o basata sull’intelligenza artificiale?

AI per la moderazione dei contenuti
La moderazione dei contenuti è diventata una pratica molto importante per diverse piattaforme digitali e multimediali, siti Web di social media e mercati di e-commerce per guidare la loro crescita. Implica la rimozione di contenuti che contengono argomenti irrilevanti, osceni, illegali o inappropriati ritenuti inadatti alla visualizzazione pubblica.

L’intelligenza artificiale sta aiutando questo processo di moderazione a ottimizzarlo attraverso algoritmi per apprendere dai dati esistenti e prendere decisioni di revisione per il contenuto. Principalmente, i sistemi di moderazione basati sull’intelligenza artificiale visualizzano i contenuti in due sensi generali: moderazione basata sui contenuti e moderazione basata sul contesto.

La moderazione basata sui contenuti include inoltre la moderazione dei contenuti sia di testo che di immagini / video . L’elaborazione del linguaggio naturale è una tecnica preferita utilizzata per la revisione del contenuto di testo e può essere utilizzata anche per un discorso utilizzando tecniche di sintesi vocale. Il riconoscimento di entità denominate (NER) è un’importante tecnica di PNL per riconoscere contenuti di testo dannosi come propaganda terroristica, incitamento all’odio, molestie e notizie false. Inoltre, l’analisi del sentiment può essere adottata per classificare ed etichettare parti di contenuto in termini di livello di emozione. Le tecnologie di visione artificiale come il rilevamento di oggetti e la segmentazione semantica possono consentire alle macchine di analizzare le immagini di identificare gli oggetti dannosi e la loro posizione. Il riconoscimento ottico dei caratteri (OCR) viene inoltre utilizzato per identificare e trascrivere il testo all’interno di immagini e video.

La moderazione basata sul contesto si basa sulla “lettura tra le righe”. L’intelligenza artificiale impara da diverse fonti per ottenere la comprensione contestuale. Questa forma di moderazione è ancora in fase di sviluppo.

Quale migliore dell’altro: IA o umano
Diversi fattori rendono forte il caso a favore dei moderatori di intelligenza artificiale:

Facebook prende sul serio la privacy: lancia uno strumento per consentire agli utenti di interrompere la condivisione dei dati di terze parti
Secondo quanto riferito , ogni giorno vengono creati almeno 2,5 quintilioni di byte di dati. E cresce ogni anno che passa. La moderazione basata sull’intelligenza artificiale è un’ottima scelta, rispetto ai moderatori umani , data l’enorme quantità di contenuti che può rilevare e analizzare.
Inoltre, al contrario di traumi importanti e problemi di salute mentale come il disturbo da stress post-traumatico che i moderatori umani potrebbero dover affrontare poiché esposti a ore di contenuti angoscianti possono essere facilmente risolti implementando modelli di intelligenza artificiale. Caso in questione l’ex moderatore di YouTube su contratto che ha citato in giudizio l’azienda per averla spinta a traumi mentali estremi come risultato diretto della visione di ore di contenuti dannosi.
Il costo della moderazione umana è piuttosto alto. Inutile dire che la moderazione non genera realmente entrate per l’azienda ed è semplicemente vista come un male necessario che deve essere controllato, controllato per diminuire i contenuti tossici a tutti i costi in modo da non allontanare gli utenti.
Detto questo, come nel caso di YouTube, l’intelligenza artificiale non può imitare le capacità e le sensibilità umane nel decidere quali contenuti sono dannosi e in quale misura. L’intelligenza artificiale è la migliore per automatizzare i processi con set di dati semplici e caratteristiche definite. Tuttavia, non sono all’altezza quando si tratta di prendere decisioni più sfumate e soggettive.

Gli esperti di diritti umani e libertà di parola in tutto il mondo sono contrari alla moderazione dei contenuti completamente automatizzata poiché la sua franchezza eccessiva è destinata a violare erroneamente il diritto di creare e diffondere informazioni critiche. Ad esempio, nel maggio 2020, YouTube ha ammesso che i suoi sistemi di controllo hanno cancellato erroneamente ” commenti critici nei confronti del Partito Comunista Cinese (PCC)

Il processo decisionale con moderazione è un processo complesso e, per ora, un sistema ibrido di moderazione umano-IA è quella che sembra l’opzione migliore.







10101010101010101010

Di ihal