Oggi, OpenAI ha presentato un nuovo articolo sul suo blog in cui dettaglia il suo entusiasmante progresso verso la creazione di un programma di intelligenza artificiale (IA) che potrebbe assumere parte, se non addirittura la maggioranza, delle responsabilità nella moderazione dei contenuti online.

L’obiettivo di OpenAI è quello di cambiare il panorama digitale in uno più positivo, in cui l’intelligenza artificiale svolga un ruolo cruciale nel moderare il flusso di contenuti online, seguendo le linee guida specifiche di ogni piattaforma. Questo avrebbe il duplice vantaggio di ridurre il carico di lavoro per un gran numero di moderatori umani e di garantire un’implementazione più coerente delle politiche di moderazione.

GPT-4, l’ultimo modello LLM di OpenAI che costituisce la base di ChatGPT, è stato addestrato per la moderazione dei contenuti ed è emerso che supera le performance dei moderatori umani meno esperti. Naturalmente, i moderatori umani altamente qualificati mantengono ancora un vantaggio, ma la ricerca dimostra che l’IA può svolgere un ruolo significativo in questo contesto.

Il processo di addestramento di GPT-4 per la moderazione dei contenuti segue tre fasi chiave. Inizialmente, viene creata una politica sui contenuti, probabilmente da esseri umani, sebbene ciò non sia specificato nell’articolo. Successivamente, si seleziona un gruppo di dati, denominato “set d’oro”, che i moderatori umani etichettano. Questo set d’oro può contenere esempi di contenuti che chiaramente violano le regole, oltre a casi più ambigui che, comunque, i moderatori umani riconoscono come violazioni. Potrebbe anche includere esempi di contenuti che rispettano pienamente le politiche.

Le etichette del set d’oro vengono utilizzate per valutare le prestazioni dell’IA. Nel secondo passo, GPT-4 legge la politica sui contenuti e applica le proprie etichette al set d’oro. Infine, un supervisore umano confronta le etichette di GPT-4 con quelle dei moderatori umani e, se ci sono discrepanze, chiede all’IA di spiegare il suo ragionamento. Questo processo iterativo contribuisce a raffinare le politiche dei contenuti e a trasformarle in classificatori, che possono essere implementati per la moderazione su larga scala.

OpenAI sottolinea che il suo approccio supera i metodi tradizionali di moderazione dei contenuti. GPT-4 è in grado di creare etichette più coerenti rispetto a una squadra di moderatori umani che potrebbero interpretare le politiche in modi diversi. Inoltre, il processo consente un aggiornamento più rapido delle politiche per affrontare nuove sfide. Tutto ciò si traduce in un notevole alleggerimento del carico di lavoro per i moderatori umani, che potrebbero concentrarsi sull’addestramento iniziale dell’IA e sulla risoluzione di problemi, lasciando all’IA il compito principale della moderazione.

È interessante notare che OpenAI ha fatto riferimento anche al concetto di “IA costituzionale” proposto da un concorrente, Anthropic, per i suoi modelli LLM Claude e Claude 2. Tuttavia, OpenAI sottolinea che il proprio approccio consente una maggiore agilità nella definizione delle politiche specifiche delle piattaforme.

Questo annuncio da parte di OpenAI è particolarmente significativo in quanto si allinea con la recente collaborazione dell’azienda con importanti organizzazioni mediatiche come The Associated Press e American Journalism Project. Questi partenariati potrebbero indicare un futuro in cui l’IA svolge un ruolo cruciale nella moderazione dei commenti online, consentendo un equilibrio tra la libertà di espressione e la prevenzione dell’abuso.

Tuttavia, è doveroso notare che OpenAI è stata oggetto di critiche in passato per l’impiego di moderatori umani a basso costo in Kenya per etichettare contenuti, compresi quelli generati dall’IA. Questi rapporti indicano una profonda ironia nel fatto che OpenAI promuova ora l’automazione della moderazione dei contenuti come soluzione per mitigare gli effetti negativi sulla salute mentale dei moderatori umani.

In conclusione, l’articolo di OpenAI presenta una visione ambiziosa per l’uso dell’IA nella moderazione dei contenuti online, ma solleva anche importanti questioni etiche riguardo all’equità e alla dignità dei moderatori umani coinvolti.

Di Fantasy