In quanto una delle principali piattaforme di social media, Meta si trova costantemente a fronteggiare un’enorme mole di contenuti che vengono pubblicati sulle sue piattaforme ogni secondo. Tuttavia, è cruciale riconoscere che non tutti questi contenuti sono sicuri e, pertanto, richiedono moderazione.
Nel novembre dell’anno scorso, Meta ha annunciato di aver preso provvedimenti nei confronti di ben 23 milioni di contenuti dannosi creati da utenti indiani attraverso le sue app di social media, come Facebook e Instagram.
La sfida di filtrare contenuti dannosi sulle app di Meta si è dimostrata impegnativa per i moderatori, i quali sono costantemente sommersi da materiale disturbante e inappropriato. Questi contenuti visivi estremi comprendono rappresentazioni o azioni reali di violenza cruenta o letale, quali omicidi, suicidi, estremismo violento, maltrattamento di animali, incitamento all’odio, abusi sessuali, pornografia infantile e per vendetta, solo per citarne alcuni.
Un recente rapporto della BBC ha messo in luce i rimorsi della società Sama, responsabile della moderazione dei post di Facebook nell’Africa orientale. Ex dipendenti con sede in Kenya hanno dichiarato di aver sofferto a causa dell’esposizione a contenuti angoscianti e grafici.
Per affrontare le sfide di moderazione dei contenuti, OpenAI sembra aver individuato una possibile soluzione. In un recente articolo sul proprio blog, OpenAI ha indicato che le aziende possono utilizzare GPT-4 per scopi di moderazione dei contenuti.
Questa rappresenta la prima volta in cui un Modello di Linguaggio di Grande Dimensione (LLM) viene sfruttato in tal senso. Secondo quanto dichiarato da OpenAI nel proprio blog, l’utilizzo di GPT-4 per la moderazione dei contenuti consente di ottenere un’iterazione delle modifiche alle politiche molto più rapida, riducendo il processo da mesi a ore. Inoltre, GPT-4 è in grado di comprendere le sfumature e le regole presenti nella lunga documentazione delle politiche dei contenuti e di adattarsi immediatamente agli aggiornamenti di tali politiche.
In base ai risultati delle ricerche condotte da OpenAI, GPT-4 addestrato per la moderazione dei contenuti supera i moderatori umani con formazione di base. Tuttavia, sia GPT-4 che gli esseri umani non sono in grado di eguagliare i moderatori umani altamente qualificati ed esperti.
Gli autori di OpenAI, Lilian Weng View, Vik Goel e Andrea Vallone, affermano che questa prospettiva offre una visione positiva per il futuro delle piattaforme digitali, in cui l’intelligenza artificiale può supportare la moderazione online in conformità con le politiche specifiche delle piattaforme, alleggerendo il carico di lavoro dei moderatori umani.
È possibile che Meta possa trarre ispirazione da OpenAI? Anche se Meta ha introdotto l’intelligenza artificiale per la moderazione dei contenuti, finora non ha esplorato l’uso di LLM per questo scopo. Pur utilizzando strumenti di intelligenza artificiale, la piattaforma dipende principalmente da partner esterni che assicurano la moderazione dei contenuti tramite personale dipendente.
L’utilizzo di esseri umani per la moderazione dei contenuti ha causato problemi per la piattaforma dei social media, in quanto spesso non sono in grado di gestire contenuti violenti. Meta ha cercato di automatizzare gradualmente questo processo, ma potrebbe trovare ispirazione da OpenAI.
OpenAI ha assunto un ruolo guida nel settore esplorando l’uso di GPT-4 per la moderazione dei contenuti. Questo strumento non è riservato solo a OpenAI, ma chiunque abbia accesso all’API di OpenAI può sfruttarlo per creare un proprio sistema di moderazione assistito dall’intelligenza artificiale.
Tuttavia, sembra improbabile che Meta adotti l’API GPT-4 per affrontare le proprie sfide, data la competizione esistente tra le due aziende nel campo dell’intelligenza artificiale generativa.
Sarebbe interessante se Meta potesse addestrare e rendere open source un proprio modello, magari chiamato Llama 2, per la moderazione dei contenuti, seguendo l’esempio di OpenAI. Senza dubbio, Meta possiede più esperienza in questo settore rispetto ad OpenAI.
Nel dicembre 2021, Meta ha sviluppato un nuovo sistema di intelligenza artificiale attraverso l’approccio del “apprendimento a pochi colpi”. Questo metodo permette ai modelli di partire da una comprensione generale di molteplici argomenti e di imparare nuovi compiti utilizzando pochi esempi etichettati, talvolta persino zero.
Lo scorso anno, Meta ha introdotto uno strumento chiamato Hasher-Matcher-Actioner (HMA), il quale sarà adottato da diverse aziende per contrastare la diffusione di contenuti terroristici sulle loro piattaforme. Questo strumento risulta particolarmente vantaggioso per le aziende di minori dimensioni, che non dispongono delle risorse delle aziende più grandi. HMA si basa su un software di corrispondenza di immagini e video open source precedentemente sviluppato da Meta, che può essere utilizzato per segnalare contenuti in violazione.
Meta dimostra una forte fiducia negli strumenti open source. Se Meta decidesse di sviluppare un modello, come ad esempio Llama 2, per la moderazione dei contenuti e lo rendesse accessibile, questo potrebbe risultare prezioso per l’azienda stessa e per altre aziende. Questo strumento potrebbe facilitare la rimozione di contenuti dannosi per gli utenti e ridurre la necessità di moderatori umani, alleviando il carico di lavoro.
Inoltre, va sottolineato che Meta ha dichiarato di essere impegnata nell’etichettare i contenuti generati dall’intelligenza artificiale sulle sue piattaforme, riflettendo il costante impegno dell’azienda in questo ambito.