Microsoft acquisisce la piattaforma di moderazione basata sull’intelligenza artificiale Two Hat
 
 
Microsoft ha annunciato oggi di aver acquisito Two Hat , una piattaforma di moderazione dei contenuti basata sull’intelligenza artificiale , per un importo non divulgato. Secondo il CVP dei servizi di prodotto Xbox Dave McCarthy, l’acquisto unirà la tecnologia, le capacità di ricerca, i team e l’infrastruttura cloud di entrambe le società per servire i clienti esistenti e nuovi di Two Hat e “più esperienze di prodotti e servizi: in Microsoft.

“Lavorando con il team diversificato ed esperto di Two Hat nel corso degli anni, è diventato chiaro che siamo pienamente allineati con i valori fondamentali ispirati dalla visione del fondatore, Chris c, di fornire un approccio olistico per comunità online positive e fiorenti, ” McCarthy ha detto in un post sul blog. “Negli ultimi anni, Microsoft e Two Hat hanno lavorato insieme per implementare la tecnologia di moderazione proattiva nelle esperienze di gioco e non per rilevare e rimuovere i contenuti dannosi prima che raggiungano i membri delle nostre comunità”. 
Secondo il  Pew Research Center , 4 americani su 10 hanno subito personalmente una qualche forma di molestia online. Inoltre, il 37% degli utenti di Internet con sede negli Stati Uniti afferma di essere stato bersaglio di gravi attacchi, tra cui molestie sessuali e stalking, basati sul proprio orientamento sessuale, religione, razza, etnia, identità di genere o disabilità. I bambini, in particolare, sono oggetto di abusi online, con un sondaggio che ha rilevato un aumento del 70% del cyberbullismo sui social media e sulle piattaforme di gioco durante la pandemia.

 
Priebe ha fondato Two Hat nel 2012 quando ha lasciato la sua posizione di specialista senior per la sicurezza delle app presso Disney Interactive, la divisione di sviluppo di giochi della Disney. Priebe, ex sviluppatore capo del team di sicurezza e protezione per Club Penguin, era guidato dal desiderio di affrontare i problemi del cyberbullismo e delle molestie sul social web.

Oggi, Two Hat afferma che la sua piattaforma di moderazione dei contenuti, che combina intelligenza artificiale, linguistica e “best practice di gestione leader del settore”, classifica, filtra e intensifica più di un trilione di interazioni umane tra cui messaggi, nomi utente, immagini e video al mese. La società collabora anche con le forze dell’ordine canadesi per addestrare l’intelligenza artificiale a rilevare nuovo materiale di sfruttamento dei minori, come contenuti che potrebbero essere pornografici.

“Con un’enfasi sull’emergere di danni online tra cui cyberbullismo, abusi, incitamento all’odio, minacce violente e sfruttamento dei bambini, consentiamo ai clienti su una varietà di social network in tutto il mondo di promuovere esperienze utente sicure e salutari per tutte le età”, scrive Two Hat sul suo sito web.

Microsoft partnership
Diversi anni fa, Two Hat ha collaborato con il team Xbox di Microsoft per applicare la sua tecnologia di moderazione alle comunità in Xbox, Minecraft e MSN. La piattaforma di Two Hat consente agli utenti di decidere il contenuto che desiderano vedere e cosa no, che Priebe ritiene essere un elemento chiave di differenziazione rispetto alle soluzioni di moderazione basate sull’intelligenza artificiale come Sentropy e l’API Perspective di Jigsaw Labs.

“Abbiamo creato una delle soluzioni di gestione della comunità più adattabili, reattive e complete disponibili e abbiamo trovato modi entusiasmanti per combinare la migliore tecnologia con intuizioni uniche”, ha affermato Priebe in un comunicato stampa . “Di conseguenza, ora ci viene affidato il compito di aiutare le interazioni online per molte delle più grandi comunità del mondo”.

 
Vale la pena notare che la moderazione semiautomatica rimane una sfida irrisolta. L’anno scorso, i ricercatori hanno dimostrato che Perceive, uno strumento sviluppato da Google e dalla sua sussidiaria Jigsaw, spesso classificava come tossici i commenti online scritti in vernacolo afroamericano. Uno studio separato ha rivelato che una cattiva grammatica e un’ortografia imbarazzante, come “Ti odio, ti amo”, invece di “Ti odio”, rendono i contenuti tossici molto più difficili da individuare per l’intelligenza artificiale e i rilevatori di macchine.

Come evidenziato da concorsi come la Fake News Challenge e la Hateful Memes Challenge di Facebook  , anche gli algoritmi di apprendimento automatico faticano ancora a ottenere una comprensione olistica delle parole nel contesto. In modo rivelatore, Facebook ha ammesso di non essere stato in grado di addestrare un modello per trovare nuovi casi di una specifica categoria di disinformazione: notizie fuorvianti su COVID-19. E il sistema di moderazione automatizzato di Instagram una volta disabilitava i membri neri il 50% più spesso degli utenti bianchi.

Ma McCarthy ha espresso fiducia nella potenza del prodotto Two Hat, che include un sistema di reputazione degli utenti, supporta 20 lingue e può automaticamente sospendere, vietare e disattivare l’audio dei membri delle comunità potenzialmente abusivi.

“Comprendiamo le complesse sfide che le organizzazioni devono affrontare oggi quando si sforzano di moderare efficacemente le comunità online. Nel nostro mondo digitale in continua evoluzione, c’è un urgente bisogno di soluzioni di moderazione in grado di gestire i contenuti online in modo efficace e scalabile”, ha affermato. “Siamo stati testimoni dell’impatto che hanno avuto all’interno di Xbox e siamo entusiasti che questa acquisizione accelererà ulteriormente le nostre soluzioni di moderazione dei contenuti proprietari nei giochi, all’interno di un’ampia gamma di servizi Microsoft per i consumatori, e creerà maggiori opportunità per i nostri partner di terze parti e l’utilizzo di queste soluzioni da parte dei clienti esistenti di Two Hat.”

 

Di ihal