Home / Intelligenza artificiale pericolo / Facebook utilizza robot e simulazioni per tentare di contrastare il cattivo comportamento degli utenti

Facebook utilizza robot e simulazioni per tentare di contrastare il cattivo comportamento degli utenti

Facebook ha progettato una nuova IA destinata a rilevare meglio comportamenti dannosi, dannosi e illegali. Secondo quanto riferito da The Verge , i ricercatori del dipartimento AI di Londra di Facebook hanno creato un simulatore di Facebook guidato dall’intelligenza artificiale chiamato “WW”, che viene utilizzato per simulare il comportamento di truffatori, commercianti di prodotti illegali, spammer e altri cattivi attori in una versione simulata di Facebook stesso.

Il simulatore di Facebook noto come “WW”, che prende il nome da un troncamento di “WWW”, è stato rivelato da Facebook in un articolo pubblicato nell’aprile di quest’anno. WW è una versione clonata e contenuta di Facebook destinata ad aiutare nella sperimentazione di vari strumenti e algoritmi di Facebook.

La società ha recentemente divulgato maggiori dettagli su alcuni dei suoi usi per la WW, uno dei quali è la simulazione di cattivi attori attraverso l’IA. Utilizzando una serie di bot per simulare comportamenti come truffe, spamming, molestie e altro, i ricercatori sperano di essere in grado di rilevare e contrastare meglio i comportamenti dannosi degli utenti.

Secondo l’ingegnere di Facebook Mark Harman, come citato da Verge, si prevede che WW sarà uno strumento prezioso per frenare vari comportamenti dannosi su Facebook. Ad esempio, Harman ritiene che le simulazioni possano essere utilizzate per progettare metodi migliori per rilevare i truffatori.

Gli ingegneri di Facebook hanno imitato il comportamento dei truffatori di Facebook nella vita reale creando due gruppi di bot: un gruppo di obiettivi e un gruppo di truffatori. I truffatori spesso cacciano attraverso reti di amici, esplorando gli amici degli utenti, al fine di trovare un potenziale bersaglio. Questo comportamento è stato imitato dai robot truffatori mentre gli ingegneri hanno sperimentato diversi metodi per prevenire la truffa del bot innocente. Le tattiche con cui hanno sperimentato includevano numerosi vincoli come limitare il numero di messaggi privati ​​che un bot poteva inviare ogni minuto.

Ci sono alcuni modi in cui Facebook simulato differisce dalla realtà. Per uno, la simulazione di Facebook in realtà non include alcun elemento visivo, quindi i dati derivati ​​dalla simulazione sono tutti sotto forma di dati numerici e statistiche sulle interazioni tra robot. Per un altro, tutti gli attori della simulazione sono robot, che non sono in grado di interagire con utenti reali. La simulazione WW non può inoltre tenere conto di cose come l’intenzione dell’utente o il contenuto di una determinata conversazione, poiché vengono simulate solo le azioni di invio di messaggi, commenti e così via.

Secondo Harman, questo processo di sperimentazione di vincoli è simile ai pianificatori urbani che tentano di ridurre la velocità su determinate strade stabilendo “dossi”. Analogamente a come un urbanista avrebbe sperimentato la creazione di dossi e quindi la raccolta di dati sulla loro utilità, gli ingegneri hanno analizzato come i messaggi e le interazioni tra i robot variavano nel loro simulatore mentre variavano parametri e vincoli. Harman spiega che l’obiettivo è quello di farsi un’idea di quali modifiche potrebbero essere apportate alla piattaforma di Facebook per inibire comportamenti dannosi senza limitare gravemente il normale comportamento o il libero flusso di traffico.

Harman spiega anche che il vantaggio dell’utilizzo di WW per le loro simulazioni è che le azioni che studiano stanno avvenendo su una vera infrastruttura di Facebook, il che dà loro un’idea molto migliore di come le modifiche proposte potrebbero avere un impatto sugli utenti reali di Facebook. Qualsiasi applicazione di questi risultati dovrà attendere un po ‘di tempo, poiché in questo momento WW e la sua simulazione sono solo in fase di ricerca. Harman e altri ricercatori di Facebook in realtà non applicheranno i loro risultati alla versione live di Facebook, in quanto c’è ancora molto lavoro da fare. Il gruppo di ricerca deve accertare che le simulazioni che creano corrispondano adeguatamente al comportamento umano reale.

Il principale vantaggio di WW, secondo Harman, è la sua capacità di operare su vasta scala, consentendo ai ricercatori di Facebook di verificare le potenziali conseguenze di migliaia di diverse piccole modifiche, attraverso le simulazioni che produce.

In futuro, i ricercatori potrebbero lasciare che i robot giochino e sperimentino per un po ‘, per vedere quali tipi di interazioni escono da soli, che spesso possono essere qualcosa che i ricercatori non stanno nemmeno prevedendo.

“Al momento, l’obiettivo principale è addestrare i robot per imitare le cose che sappiamo accadere sulla piattaforma. Ma in teoria e in pratica, i robot possono fare cose che non abbiamo mai visto prima ”, ha affermato Harman . “Questo è in realtà qualcosa che vogliamo, perché alla fine vogliamo andare avanti con i cattivi comportamenti piuttosto che giocare continuamente recuperare.”

Se tutto andrà bene, Facebook potrebbe iniziare ad apportare modifiche basate sulle simulazioni della WW entro la fine del 2020.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi