Nell’attuale panorama, Internet si configura come la spina dorsale della comunicazione e della connettività globale. Tuttavia, mentre godiamo dei benefici di questa straordinaria connessione online, ci troviamo anche a dover affrontare l’aspetto oscuro del comportamento umano, come l’incitamento all’odio, gli stereotipi e i contenuti dannosi. Questi problemi hanno infiltrato i social media, i forum online e altri spazi virtuali, causando danni duraturi sia alle persone che alla società nel complesso. Questo sottolinea la necessità urgente di contrastare l’incitamento all’odio.
Secondo il Pew Research Center, il 41% degli adulti americani dichiara di aver subito personalmente abusi online, mentre il 25% è stato vittima di gravi forme di molestie.
Per promuovere un ambiente online più costruttivo e rispettoso, diventa cruciale adottare misure proattive e sfruttare le potenzialità della tecnologia. In tal senso, l’Intelligenza Artificiale (IA) offre soluzioni innovative per individuare e contrastare l’incitamento all’odio e gli stereotipi.
Le attuali strategie per mitigare l’incitamento all’odio presentano delle limitazioni significative. Non riescono ad arginare efficacemente la diffusione di contenuti nocivi online, a causa di fattori come:
- Le strategie reattive, basate prevalentemente sulla moderazione umana e su algoritmi statici, faticano a tenere il passo con la rapida diffusione dell’incitamento all’odio.
- L’ingente quantità di contenuti online sovraccarica i moderatori umani, portando a risposte ritardate e al mancato riconoscimento di retoriche dannose.
- Inoltre, la complessità del contesto e delle sfumature linguistiche rappresenta una sfida per i sistemi automatizzati nell’identificare e interpretare con precisione i casi di incitamento all’odio.
Per superare queste limitazioni e favorire un ambiente online più sicuro, diventa fondamentale passare a misure proattive. L’adozione di soluzioni basate sull’intelligenza artificiale può rafforzare le comunità digitali, incoraggiando l’inclusione e la coesione online.
Nella lotta contro l’incitamento all’odio, l’intelligenza artificiale emerge come un potente alleato, grazie all’utilizzo di algoritmi di apprendimento automatico (Machine Learning, ML) per identificare e marcare velocemente e con precisione i contenuti dannosi. Mediante l’analisi di ingenti quantità di dati, i modelli di intelligenza artificiale possono apprendere a individuare i modelli e le sfumature linguistiche legate all’incitamento all’odio, consentendo loro di classificare ed affrontare efficacemente i contenuti offensivi.
Per addestrare in modo accurato i modelli di intelligenza artificiale al rilevamento dell’incitamento all’odio, si utilizzano tecniche di apprendimento supervisionato e non supervisionato. L’apprendimento supervisionato implica l’utilizzo di esempi etichettati di incitamento all’odio e di contenuti innocui per insegnare al modello a distinguere tra le due categorie. In contrasto, le metodologie di apprendimento non supervisionato e semi-supervisionato si basano su dati non etichettati per sviluppare la comprensione del modello riguardo all’incitamento all’odio.
Il “contro-discorso” si pone come una potente strategia per contrastare l’incitamento all’odio, affrontando direttamente le narrazioni dannose. Questa pratica implica la creazione di contenuti persuasivi e informativi, promuovendo empatia, comprensione e tolleranza. Con il contro-discorso, individui e comunità possono attivamente contribuire a creare un ambiente digitale positivo.
Benché i dettagli specifici dei singoli modelli di contro-discorso possano variare in base alla tecnologia AI e agli approcci di sviluppo, alcune caratteristiche e tecniche comuni includono:
- Generazione di Linguaggio Naturale (Natural Language Generation, NLG): i modelli di contro-discorso utilizzano NLG per produrre risposte simili a quelle umane, sia in forma scritta che parlata. Queste risposte risultano coerenti e contestualmente pertinenti all’incitamento all’odio specifico che si intende contrastare.
- Analisi del Sentimento: i modelli di contro-discorso basati sull’intelligenza artificiale impiegano l’analisi del sentimento per valutare l’emozione sottesa all’incitamento all’odio, adattando di conseguenza le risposte. Ciò garantisce che il contro-discorso sia sia incisivo che empatico.
- Comprensione Contestuale: analizzando il contesto circostante l’incitamento all’odio, i modelli di contro-discorso possono generare risposte che affrontano aspetti specifici o idee erronee, contribuendo a un’azione di contro-discorso più efficace e mirata.
- Diversità dei Dati: per evitare pregiudizi ed assicurare l’equità, i modelli di contro-discorso vengono addestrati su varie fonti di dati che rappresentano differenti prospettive e sfumature culturali. Questo contribuisce alla generazione di risposte inclusive e sensibili alle diversità culturali.
- Apprendimento dal Feedback degli Utenti: i modelli di contro-discorso possono migliorarsi continuamente apprendendo dal feedback degli utenti. Questo ciclo di retroazione consente al modello di affinare le proprie risposte in base alle interazioni reali, potenziando l’efficacia nel tempo.
Un esempio tangibile di strategia di contrasto basata sull’IA è il “Metodo di Reindirizzamento” sviluppato da Google Jigsaw e Moonshot CVE. Questo approccio utilizza la pubblicità mirata per raggiungere individui sensibili alle ideologie estremiste e all’incitamento all’odio, al fine di scoraggiarli dall’interagire con contenuti dannosi e promuovere invece empatia, comprensione e allontanamento dalle convinzioni estreme.
Un’altra iniziativa importante è rappresentata dal modello di intelligenza artificiale chiamato BiCapsHate, sviluppato dai ricercatori di IEEE Transactions on Computational Social Systems. Questo modello supporta un’analisi del linguaggio bidirezionale, migliorando la comprensione del contesto per una classificazione accurata dei contenuti che incitano all’odio. Questo progresso cerca di attenuare l’impatto dannoso dell’incitamento all’odio sui social media, aprendo la strada a interazioni online più sicure.
Allo stesso modo, gli studiosi dell’Università del Michigan hanno adottato l’IA per contrastare l’incitamento all’odio online tramite un approccio denominato “Rule By Example” (RBE). Sfruttando il deep learning, questo metodo apprende regole per classificare l’incitamento all’odio partendo da esempi di contenuti incitanti. Queste regole sono poi applicate al testo in ingresso per individuare ed anticipare con precisione l’incitamento all’odio online.
Affinché i modelli di contrasto basati sull’IA possano esprimere appieno la loro efficacia, è imprescindibile considerare aspetti etici. Tuttavia, è cruciale trovare un equilibrio tra la libertà di espressione e la necessità di prevenire la diffusione di contenuti nocivi al fine di evitare la censura.
La trasparenza durante lo sviluppo e l’implementazione dei modelli di contro-discorso dell’IA risulta fondamentale per instaurare fiducia e responsabilità tra utenti e stakeholder. In aggiunta, garantire l’equità è altrettanto essenziale, dal momento che i pregiudizi nei modelli di intelligenza artificiale possono perpetuare discriminazione ed esclusione.
Ad esempio, modelli di intelligenza artificiale creati per rilevare l’incitamento all’odio potrebbero involontariamente amplificare pregiudizi razziali. Ricerche hanno dimostrato che i principali modelli di intelligenza artificiale per l’incitamento all’odio avevano probabilità 1,5 volte superiori di segnalare tweet di individui afroamericani come offensivi. Inoltre, avevano probabilità 2,2 volte maggiori di etichettare come incitamento all’odio i tweet scritti in inglese afroamericano. Uno studio su 155.800 post di Twitter relativi all’incitamento all’odio ha confermato risultati simili, sottolineando la sfida di fronteggiare i pregiudizi razziali nell’ambito della moderazione AI dei contenuti.
In un altro studio, gli studiosi hanno testato quattro sistemi di intelligenza artificiale per il rilevamento dell’incitamento all’odio, riscontrando difficoltà nel riconoscere con precisione frasi tossiche. Per individuare i problemi specifici nei modelli di rilevamento dell’incitamento all’odio, hanno creato una tassonomia con 18 tipi di incitamento all’odio, includendo insulti e linguaggio minaccioso. Hanno anche identificato 11 scenari che scatenavano l’azione dell’intelligenza artificiale, come l’uso di linguaggio volgare in dichiarazioni non offensive. Di conseguenza, è nato “HateCheck”, un insieme di dati open source con quasi 4.000 esempi, mirato a migliorare la comprensione delle sfumature dell’incitamento all’odio per i modelli di intelligenza artificiale.
La lotta all’incitamento all’odio e agli stereotipi richiede un approccio multidimensionale e proattivo. Per questo motivo, è essenziale promuovere la consapevolezza e l’alfabetizzazione digitale per contrastare tali fenomeni.
Educare le persone sulle conseguenze dei contenuti dannosi favorisce una cultura di empatia e comportamenti online responsabili. Le strategie che incentivano il pensiero critico consentono agli utenti di discernere tra discorsi legittimi e incitamento all’odio, contribuendo a ridurre la diffusione di narrazioni dannose. Inoltre, è di vitale importanza fornire agli utenti le competenze per identificare e affrontare con efficacia l’incitamento all’odio, consentendo loro di sfidare e contrastare le narrazioni dannose, e contribuendo così a creare un ambiente digitale più sicuro e rispettoso.
Con l’evoluzione della tecnologia IA, cresce esponenzialmente il potenziale per affrontare con maggiore precisione e impatto l’incitamento all’odio e gli stereotipi. È pertanto cruciale consolidare il ruolo del contro-discorso basato sull’IA come strumento potente per promuovere l’empatia e un impegno costruttivo online.