Le piattaforme online interattive sono diventate parte integrante della nostra vita quotidiana. Sebbene i contenuti generati dagli utenti, liberi dai tradizionali vincoli editoriali, abbiano stimolato vivaci comunicazioni online, migliorato i processi aziendali e ampliato l’accesso alle informazioni, ha anche sollevato questioni complesse su come moderare i contenuti online dannosi. Poiché il volume dei contenuti generati dagli utenti continua a crescere, è diventato sempre più difficile per le società di Internet e di social media tenere il passo con le esigenze di moderazione delle informazioni pubblicate sulle loro piattaforme. Le misure di moderazione dei contenuti supportate dall’intelligenza artificiale (AI) sono emerse come strumenti importanti per affrontare questa sfida.
Che tu stia gestendo una piattaforma di social media o un sito di e-commerce, ridurre al minimo i contenuti dannosi è fondamentale per l’esperienza dell’utente. Tali contenuti dannosi possono includere qualsiasi cosa, dai post che promuovono la violenza agli abusi sui minori. In effetti, la gamma e l’ambito dei potenziali contenuti dannosi si sono dimostrati troppo ampi per essere esaminati dai moderatori umani in modo completo. I sistemi di intelligenza artificiale, progettati per rispecchiare il modo in cui gli esseri umani pensano ed elaborano le informazioni, potrebbero essere in grado di migliorare la velocità e l’accuratezza di questo processo. La tecnologia AI può acquisire grandi set di dati e insegnare alle macchine a identificare modelli o fare previsioni su determinati input. In definitiva, questa capacità consente ai computer di riconoscere e filtrare determinate parole o immagini con maggiore efficienza di quanto gli esseri umani possano elaborare queste informazioni. Come ulteriore vantaggio, questo riduce o potrebbe potenzialmente eliminare la necessità per i moderatori umani di essere direttamente esposti a contenuti dannosi.
Sebbene i sistemi di intelligenza artificiale siano promettenti, non sono privi di una propria serie di sfide. Secondo alcune stime, ogni giorno vengono creati 2,5 quintilioni di byte di dati. In quanto tale, mentre l’IA offre un modo per elaborare in modo più efficiente grandi quantità di dati, il volume di contenuti in questione è ora così vasto che è diventato fondamentale che i modelli di intelligenza artificiale funzionino con velocità e precisione. E per ottenere un’accuratezza ottimale è necessario che un modello di intelligenza artificiale non si basi solo su dati e immagini accurati, ma sia anche in grado di apprezzare le sfumature del contenuto esaminato per distinguere la satira dalla disinformazione. Inoltre, sono state sollevate domande sul fatto che questi modelli rimuovano gli inevitabili pregiudizi dei moderatori di contenuti umani o se gli stessi modelli di intelligenza artificiale introducano, consolidano o amplificano i pregiudizi nei confronti di determinati tipi di utenti. Uno studio, ad esempio, ha scoperto che i modelli di intelligenza artificiale addestrati per elaborare l’incitamento all’odio online avevano una probabilità 1,5 volte maggiore di identificare i tweet come offensivi o odiosi quando scritti da utenti afroamericani.
Questa tensione dimostra il difficile equilibrio tra la progettazione di modelli per affrontare le inefficienze umane e l’eliminazione dell’errore umano nella moderazione dei contenuti, garantendo nel contempo che nuove questioni sistematiche non vengano introdotte nei modelli stessi. In effetti, i responsabili delle politiche statunitensi hanno condotto numerose audizioni e presentato proposte legislative per affrontare le preoccupazioni relative ai pregiudizi all’interno dei sistemi di intelligenza artificiale e alla discriminazione involontaria che potrebbe derivare dall’utilizzo di tali sistemi.
I sistemi di intelligenza artificiale offrono innegabilmente funzionalità avanzate delle piattaforme online per moderare efficacemente i contenuti generati dagli utenti, ma presentano una propria serie di sfide che devono essere considerate poiché questi sistemi sono progettati e implementati come strumenti di moderazione.