Gli ingegneri di Facebook hanno sviluppato un nuovo metodo per aiutarli a identificare e prevenire comportamenti dannosi come gli utenti che diffondono spam, truffano gli altri o acquistano e vendono armi e droghe. Ora possono simulare le azioni di cattivi attori usando robot basati sull’intelligenza artificiale facendoli perdere su una versione parallela di Facebook. I ricercatori possono quindi studiare il comportamento dei robot in simulazione e sperimentare nuovi modi per fermarli.

SIMULAZIONE DI SPAM, TRUFFE E VENDITA DI DROGHE
Il simulatore è noto come WW, pronunciato “Dub Dub” e si basa sulla base di codice reale di Facebook. La società ha pubblicato un articolo sul WW (così chiamato perché il simulatore è una versione troncata del WWW, il world wide web) all’inizio di quest’anno , ma ha condiviso ulteriori informazioni sul lavoro in una recente tavola rotonda.

La ricerca è guidata dall’ingegnere Facebook Mark Harman e dal dipartimento AI della compagnia a Londra. Parlando con i giornalisti, Harman ha affermato che WW era uno strumento estremamente flessibile che poteva essere utilizzato per limitare una vasta gamma di comportamenti dannosi sul sito e ha fornito l’esempio dell’utilizzo della simulazione per sviluppare nuove difese contro i truffatori.

Nella vita reale, i truffatori spesso iniziano il loro lavoro aggirando i gruppi di amicizia degli utenti per trovare potenziali segni. Per modellare questo comportamento in WW, gli ingegneri di Facebook hanno creato un gruppo di robot “innocenti” per agire come obiettivi e hanno addestrato un numero di robot “cattivi” che hanno esplorato la rete per cercare di trovarli. Gli ingegneri hanno quindi provato diversi modi per fermare i robot difettosi, introducendo vari vincoli, come limitare il numero di messaggi privati ​​e post che i bot potevano inviare ogni minuto, per vedere come ciò influiva sul loro comportamento.

Harman confronta il lavoro con quello degli urbanisti che cercano di ridurre la velocità su strade trafficate. In tal caso, gli ingegneri modellano i flussi di traffico nei simulatori e quindi sperimentano l’introduzione di dossi su determinate strade per vedere quali effetti hanno. La simulazione WW consente a Facebook di fare la stessa cosa ma con gli utenti di Facebook.

“POSSIAMO RIDIMENSIONARE FINO A DECINE O CENTINAIA DI MIGLIAIA DI ROBOT”
“Applichiamo” speed dump “alle azioni e alle osservazioni che i nostri robot possono eseguire, ed esploriamo così rapidamente i possibili cambiamenti che potremmo apportare ai prodotti per inibire comportamenti dannosi senza danneggiare il normale comportamento”, afferma Harman. “Possiamo ridimensionarlo fino a decine o centinaia di migliaia di bot e quindi, in parallelo, cercare molti, molti diversi vettori possibili […] di vincoli.”

La simulazione del comportamento che si desidera studiare è una pratica abbastanza comune nell’apprendimento automatico, ma il progetto WW è notevole perché la simulazione si basa sulla versione reale di Facebook. Facebook chiama il suo approccio “simulazione basata sul web”.

“A differenza di una simulazione tradizionale, in cui tutto è simulato, nella simulazione basata sul web, le azioni e le osservazioni si svolgono effettivamente attraverso la vera infrastruttura e quindi sono molto più realistiche”, afferma Harman.

Ha sottolineato, tuttavia, che nonostante l’uso di infrastrutture reali, i robot non sono in grado di interagire con gli utenti in alcun modo. “In realtà non possono, per costruzione, interagire con qualsiasi cosa diversa da altri robot”, dice.

NON IMMAGINARE SCIENZIATI CHE STUDIANO ROBOT COME SE FOSSI UN FICCANASO SU UN GRUPPO DI FACEBOOK
In particolare, la simulazione non è una copia visiva di Facebook. Non immaginare gli scienziati che studiano il comportamento dei robot nello stesso modo in cui potresti vedere le persone interagire tra loro in un gruppo di Facebook. WW non produce risultati tramite la GUI di Facebook, ma registra invece tutte le interazioni come dati numerici. Pensala come la differenza tra guardare una partita di calcio (Facebook reale) e semplicemente leggere le statistiche delle partite (WW).

In questo momento, anche WW è in fase di ricerca, e nessuna delle simulazioni che l’azienda ha condotto con i robot ha portato a cambiamenti nella vita reale di Facebook. Harman afferma che il suo gruppo sta ancora eseguendo dei test per verificare che le simulazioni corrispondano ai comportamenti della vita reale con una fedeltà sufficientemente elevata da giustificare i cambiamenti nella vita reale. Ma pensa che il lavoro comporterà modifiche al codice di Facebook entro la fine dell’anno.

Ci sono certamente delle limitazioni anche per il simulatore. WW non può modellare le intenzioni dell’utente, ad esempio, né simulare comportamenti complessi. Facebook afferma che i robot cercano, fanno richieste di amicizia, lasciano commenti, creano post e inviano messaggi, ma il contenuto effettivo di queste azioni (come il contenuto di una conversazione) non viene simulato.

Harman afferma che il potere di WW, tuttavia, è la sua capacità di operare su vasta scala. Consente a Facebook di eseguire migliaia di simulazioni per verificare tutti i tipi di modifiche minori al sito senza influire sugli utenti e da ciò trova nuovi modelli di comportamento. “Il potere statistico che deriva dai big data non è ancora pienamente apprezzato, penso”, afferma.

IL SIMULATORE DI FACEBOOK DOVREBBE PRODURRE COMPORTAMENTI IMPREVEDIBILI
Uno degli aspetti più interessanti del lavoro è il potenziale per la WW di scoprire nuovi punti deboli nell’architettura di Facebook attraverso le azioni dei robot. I robot possono essere addestrati in vari modi. A volte vengono fornite istruzioni esplicite su come agire; a volte viene chiesto di imitare il comportamento della vita reale; e a volte vengono semplicemente assegnati determinati obiettivi e lasciati a decidere le proprie azioni. È in quest’ultimo scenario (un metodo noto come machine learning senza supervisione) che possono verificarsi comportamenti imprevisti, poiché i robot trovano modi per raggiungere il loro obiettivo che gli ingegneri non hanno previsto.

“Al momento, l’obiettivo principale è addestrare i robot per imitare le cose che sappiamo accadere sulla piattaforma. Ma in teoria e in pratica, i robot possono fare cose che non abbiamo mai visto prima ”, afferma Harman. “Questo è in realtà qualcosa che vogliamo, perché alla fine vogliamo andare avanti con i cattivi comportamenti piuttosto che giocare continuamente recuperare.”

Harman afferma che il gruppo ha già visto alcuni comportamenti imprevisti dai robot, ma ha rifiutato di condividere qualsiasi dettaglio. Ha detto che non voleva dare alcun indizio ai truffatori.

Di ihal