L’AI fallita di Facebook mostra i pericoli dei tecnologi che gestiscono il mondo
In mezzo alla raffica di critiche sul motivo per cui i suoi algoritmi AI fortemente propagandati non hanno contrassegnato il video della Nuova Zelanda, Facebook ha rilasciato una dichiarazione mercoledì sera che tentava di spiegare la sua responsabilità come un limite dei dati di addestramento dell’IA e la mancanza di revisori di contenuti sufficienti. Eppure, in realtà, la risposta di Facebook ha documentato in modo squisitamente dettagliato tutte le ragioni per cui è così pericoloso cedere sempre più il funzionamento del nostro mondo digitale a tecnici che non hanno la più semplice comprensione di come funzioni il mondo reale.
Dopo anni passati a propagandare i suoi immensi progressi nell’IA e in che modo stava scommettendo sull’intero futuro della compagnia sulla moderazione dei contenuti AI, la scorsa settimana l’abiezione di Facebook di contrassegnare il video della Nuova Zelanda ha portato a una serie di concessioni dalla società che i suoi strumenti di intelligenza artificiale semplicemente non sono così avanzati come ha affermato.
La dichiarazione della società Mercoledì sera ha rivelato una serie di affascinanti approfondimenti sul perché gli sforzi di moderazione dei contenuti dell’azienda sono falliti in modo così spettacolare in così tanti modi.
Alla domanda se la società ritenesse di avere un numero sufficiente di moderatori umani per esaminare il contenuto che fluisce attraverso la sua piattaforma, un portavoce ha rifiutato di commentare. Tuttavia, nella sua dichiarazione Mercoledì sera, Facebook ha respinto l’idea di introdurre il tipo di ritardo di trasmissione utilizzato dalle reti televisive per catturare contenuti inappropriati, sostenendo che i suoi “milioni di trasmissioni quotidiane” sono semplicemente troppo per il suo piccolo gruppo di moderatori di contenuti revisionare.
L’argomento della società secondo cui ha pochi moderatori di contenuti di rivedere adeguatamente tutti i contenuti pubblicati sulla sua piattaforma ogni giorno è proprio il punto che un numero crescente di governi ha sollevato sulla società. Nella sua corsa per massimizzare la redditività, Facebook spende troppo poco sulla moderazione dei contenuti rispetto alle risorse che spende per ospitare, promuovere, fornire accesso e monetizzare tutti quei contenuti.
L’argomentazione della società secondo cui non può introdurre un ritardo nel suo prodotto livestreaming perché manca un numero sufficiente di revisori per rivedere i flussi è almeno alla fine un’ammissione da parte della società che ha troppo pochi revisori.
Facebook dedica un’intera sezione del suo rapporto a notare che “durante l’intera trasmissione dal vivo, non abbiamo ricevuto un singolo rapporto utente”.
La società si è a lungo affidata agli stessi utenti per segnalare contenuti inappropriati con l’idea che i suoi due miliardi di utenti segnalano naturalmente ogni pezzo di contenuto non valido nell’istante in cui appare sui suoi server. Tuttavia, poiché la compagnia è stata avvertita più e più volte, non è così che funziona il mondo reale. In effetti, la società stessa ha ripetutamente riconosciuto che contenuti come la vendetta pornografica e le vendite illegali di armi, droga e animali avvengono tutti senza che gli utenti ne segnalino immediatamente il contenuto per la rimozione.
Gran parte di questa distribuzione avviene lontano dall’opinione pubblica in gruppi privati e pagine che non sono ampiamente conosciute. I membri di tali gruppi sono lì con lo scopo di impegnarsi in attività illegali o immorali o di consumare contenuti specifici a cui non vogliono interferire. Di sicuro non riferiranno alle autorità il contenuto che sanno di non condividere o consumare.
Per Facebook persino offrire la difesa che il video non è stato segnalato dai suoi utenti suggerisce che semplicemente non capisce come viene utilizzata la sua piattaforma.
Ciò è particolarmente spaventoso perché ci ricorda quanto poco i tecnici di Silicon Valley di Facebook siano in grado di capire come funziona il mondo reale, ricordandoci che ciò accadrà semplicemente e ancora.
La società ha anche ammesso quanto sia stato mal preparato l’idea innovativa secondo cui gli utenti potrebbero cercare di aggirare le sue liste di contenuti. Nella sua dichiarazione, Facebook afferma di essere stato preso alla sprovvista dagli utenti che cercavano di aggirare i propri filtri nella lista nera alterando il video, remixandolo con altri contenuti e semplicemente catturandolo dai loro schermi. Ha offerto “stiamo imparando a capire meglio le tecniche che funzionerebbero in casi come questo con molte varianti di un video originale” e abbiamo notato che aveva iniziato a distribuire corrispondenze audio oltre alla corrispondenza dei video.
Aziende come Facebook sono ben consapevoli dell’incredibile creatività che gli utenti utilizzano per pubblicare contenuti illeciti sulle loro piattaforme. Effettivamente, conducono ricerche approfondite e investono molto per combattere il gioco del gatto col topo che impedisce la condivisione di contenuti protetti da copyright, a causa della loro responsabilità legale per tale condivisione. Anche la registrazione di un video riprodotto sullo schermo di un computer, che Facebook cita come particolarmente difficile da cogliere, è un approccio estremamente comune di cui l’azienda è ben consapevole quando si tratta di contenuti protetti da copyright.
Questi non sono nuovi approcci senza precedenti come sostiene la società. Sono pratiche secolari che conosce fin troppo bene e ha investito molto nella lotta per quanto riguarda il contenuto protetto da copyright di cui è effettivamente responsabile.
La corrispondenza audio è un complemento standard alla corrispondenza visiva per i video che fornisce protezione contro l’ampia modifica visiva o la ripubblicazione dell’audio, quindi è estremamente sorprendente vedere Facebook affermare che non ha tentato di implementare tali strumenti sin dall’inizio. La società non ha risposto immediatamente a una richiesta di commento sul motivo per cui non ha implementato tali strumenti fino a tardi.
Forse l’esempio più lampante del perché i tecnici della Silicon Valley stanno fallendo in modo così spettacolare contro l’uso improprio delle loro piattaforme sta nelle ammissioni di Facebook riguardo al perché il suo filtro anti-terrorismo AI è fallito.
La società afferma che il suo filtraggio AI non è riuscito a contrassegnare il video perché la società non disponeva di una libreria di formazione sufficientemente ampia di tali video per addestrare adeguatamente i suoi algoritmi di intelligenza artificiale.
Per dirlo in modo più chiaro, Facebook ha dichiarato di addestrare il suo algoritmo di rilevamento del terrorismo / violenza solo fornendogli il numero molto piccolo di video di attacchi passati.
Gli attuali approcci AI per la visione artificiale richiedono enormi quantità di dati di allenamento e contro-esempi estremamente diversificati per costruire algoritmi di riconoscimento anche moderatamente robusti. Quando si allena un algoritmo per riconoscere un cane o una palla da tennis o una persona, le aziende possono semplicemente eseguire la scansione del Web o acquistare una galleria fotografica per acquisire milioni di esempi di formazione, assicurando che l’algoritmo disponga di dati sufficienti per lavorare (sebbene questi dati siano ampiamente prevenuto verso le società occidentali e rappresenta poco della diversità del mondo).
Nessun ricercatore di IA serio avrebbe mai pensato di provare a costruire un modello di riconoscimento del cane partendo da zero, passandogli alcune dozzine di fotografie di golden retriever e ipotizzando che il modello potesse ora riconoscere tutte le razze canine con elevata precisione. Il trasferimento dell’apprendimento può essere d’aiuto, ma anche in questo caso, per una categoria sufficientemente ampia e vaga come “violenza” o “terrorismo” è necessaria una quantità enorme di dati di addestramento per rappresentare pienamente la totalità dello spazio rappresentato e trasferire l’apprendimento da contenuti in gran parte non correlati è difficile nel migliore dei casi
Invece, quando si costruiscono modelli di intelligenza artificiale per categorie molto rare e molto ampie e vaghe come la “violenza terrorista” che genera dibattito anche tra studiosi specializzati che si specializzano nell’area, i modelli non vengono mai costruiti consegnando loro una piccola serie di video di attacchi terroristici del passato e incrociando le dita che in qualche modo ha imparato abbastanza da riconoscere altri video di terrorismo in futuro.
Lontano da esso.
I robusti modelli di intelligenza artificiale per le categorie rare ma ampie si basano su analisi caratteristiche. Piuttosto che un modello binario monolitico costruito su un piccolo numero di video di formazione, viene costruita una serie di modelli che scompongono il video nelle sue parti componenti per le quali sono disponibili quantità enorme di dati di addestramento. Mentre ci sono relativamente pochi video in prima persona di attacchi di tiro alle case di culto usando armi di tipo militare, ci sono vaste biblioteche di video di armi, di armi tenute in una posizione di fuoco, di case di culto di ogni tipo, di spari, di espressioni umane non verbali, di morbilità, ecc.
Un robusto modello di video-antiterrorismo basato su AI calcolerà tutte queste caratteristiche per ciascun video e genererà un punteggio di probabilità che mostri o preveda vari tipi di violenza, compresi quelli per i quali non ha mai visto i relativi dati di allenamento.
Questo è fondamentale perché Facebook ha già ammesso che funziona quasi esclusivamente con contenuti dello Stato islamico e di Al Qaeda nei suoi sforzi contro il terrorismo. Pertanto, i suoi dati di addestramento comprendono principalmente uomini vestiti in gran parte in un modo particolare, in gran parte da una particolare demografia, in gran parte parlando un particolare linguaggio e in gran parte utilizzando specifici tipi di tattiche violente. Questi individui rappresentano una piccola parte dei terroristi in tutto il mondo, ma l’attenzione quasi esclusiva di Facebook su questi due gruppi garantisce che i dati di addestramento vengano sempre erroneamente distorti nei loro confronti.
Questa parzialità quasi totale nel database storico di addestramento del terrorismo di Facebook significa che il suo modello di terrorismo semplicemente non poteva avere avuto altri risultati, ma mancare il video della Nuova Zelanda.
In effetti, i nostri modelli di intelligenza artificiale che esistevano oggi erano abbastanza in grado di segnalare in tempo reale che il video della Nuova Zelanda presentava un’arma d’assalto di tipo militare, che l’arma era tenuta in una posizione di fuoco, che dalle immagini di sfondo la persona si stava avvicinando a una casa di culto con un’arma militare in una posizione di fuoco e che dall’andatura e dall’approccio della persona c’era una probabilità molto elevata di confronto fisico.
Queste non sono fantasie fantascientifiche di ciò che la tecnologia potrebbe permettere un giorno. Questi sono gli algoritmi di intelligenza artificiale implementati nella produzione commerciale oggi dalle aziende di tutto il mondo.
Tuttavia, come ci ricorda Facebook, anche la tecnologia AI più avanzata è di scarsa utilità quando le aziende non capiscono come distribuirla.
I robusti modelli di intelligenza artificiale per categorie rare ma vaghe come i video di terrorismo in prima persona non vengono semplicemente costruiti come classificatori binari da un piccolo insieme di video di formazione quasi completamente distorti.
Semplicemente non è fatto perché semplicemente non funziona.
Questi modelli IA robusti sono sempre costruiti come raccolte di robusti classificatori di attributi addestrati su grandi volumi di dati e utilizzando combinazioni di tali attributi per calcolare la sicurezza che il video raffigura varie forme di violenza o il rischio che stia per rappresentare tale violenza nel futuro immediato.
Per un’azienda che è pubblicizzata come leader nell’IA è semplicemente oltre ogni credibilità che questo è in realtà come Facebook sta costruendo i suoi sistemi di IA.
Non c’è assolutamente alcun modo possibile che un’azienda con l’esperienza di intelligenza artificiale di Facebook affermi di aver preso in considerazione la possibilità di costruire strumenti di filtro in questo modo.
Queste non sono nuove scoperte all’avanguardia. Questi sono standard del settore ben noti.
Ciò suggerisce sia che Facebook stia minimizzando il modo in cui costruisce i suoi strumenti di intelligenza artificiale come una trovata pubblicitaria per rendere il fallimento dei suoi strumenti più plausibile oppure noi come società abbiamo bisogno di fare una valutazione molto realistica di quanto male Facebook capisca come non solo il mondo funziona, ma anche le basi della tecnologia AI.
Potrebbe essere che tutte le affermazioni di Facebook di essere un leader nell’IA non sono altro che marketing hype e la società in realtà capisce poco della tecnologia di apprendimento approfondito corrente applicata al mondo reale?
Che Facebook in realtà affermi in una dichiarazione pubblica di aver perso l’attacco terroristico neozelandese a causa della mancanza di video di addestramento per la sua IA di attacchi violenti del passato dimostra una totale incapacità di comprendere sia le realtà del mondo reale che i limiti del profondo di oggi tecnologia di apprendimento e chiama in causa l’intero approccio di Facebook alla distribuzione di intelligenza artificiale per la moderazione dei contenuti.
Se Facebook ritiene che sia accettabile formulare modelli di antiterrorismo dell’IA come classificatori binari su piccoli pool di dati di formazione estremamente distorti, la società manca della comprensione anche più rudimentale della tecnologia di deep learning o semplicemente non si preoccupa della moderazione dei contenuti.
L’uso di classificatori binari da parte di Facebook ha senso dal punto di vista delle pubbliche relazioni. Permette alla compagnia di implementare soluzioni estremamente economiche che sa che falliranno nella maggior parte dei casi, ma le consente di affermare che sta facendo qualcosa con l’intelligenza artificiale per combattere l’uso terroristico della sua piattaforma. In sostanza, può dire ai governi che sta usando l’intelligenza artificiale, mentre allo stesso tempo distribuisce soluzioni economiche semplicistiche che sa che falliranno nella maggior parte dei casi.
Facebook è in grado di farlo perché i responsabili delle politiche governative e il pubblico in generale mancano della comprensione tecnica dell’IA o persino della tecnologia nel suo insieme per chiedere all’azienda le domande difficili necessarie.
Pertanto, Facebook è in grado di rivendicare che i suoi strumenti anti-terrorismo ” sono stati così efficaci nel prevenire la diffusione della propaganda da parte di organizzazioni terroristiche”, rifiutandosi di fornire anche i dettagli più basilari a sostegno di tali affermazioni. Rifiuta di fornire qualsiasi informazione su come funzionano effettivamente quegli strumenti, quanto perdono o i loro falsi positivi. È in grado di definire i “terroristi” come lo Stato islamico e Al Qaeda, ignorando convenientemente il terrorismo in tutte le sue altre forme in tutto il mondo. La cosa più importante è che l’azienda è in grado di mantenere gli sforzi anti-terrorismo al riparo da controlli esterni da parte di esperti indipendenti che potrebbero sollevare dubbi sui suoi approcci ingenui.
Come è diventata pratica della società, non ha risposto ad alcuna delle domande poste su questi temi, ricordandoci ancora una volta che Facebook non ha alcun incentivo a migliorare, dal momento che non ha conseguenze per i suoi fallimenti e in realtà ricava profitti monetari da uso terroristico della sua piattaforma.
Mettendo tutto questo insieme, semplicemente non è plausibile in alcun modo che Facebook stia basando il suo filtraggio video AI su un semplice classificatore binario costruito sul suo piccolo pool di dati di addestramento immensamente distorti o che afferma di non essere stato in grado di separare i video del mondo reale da filmati di videogiochi. Semplicemente, non esiste una realtà possibile in cui una società con la famosa intelligenza artificiale di Facebook considererebbe un approccio così ingenuo. Né sarebbe stato impossibile distribuire le impronte digitali audio dall’inizio o il filtraggio delle modifiche.
Eppure, tutti i messaggi di Facebook fino ad oggi riguardanti la Nuova Zelanda dipingono un ritratto di una società così completamente fuori dalla sua profondità che gli approcci tecnologici che afferma di aver usato leggere più simile a un liceale che prova il suo primo tutorial di apprendimento profondo “ciao mondo” dopo aver letto su di esso in un articolo di notizie. Semplicemente non è possibile che Facebook abbia questa piccola comprensione di come funziona l’apprendimento profondo o di non riuscire a capire come funziona il mondo reale.
Alla fine, rimaniamo con la preoccupante possibilità che la società di social media più influente al mondo manchi anche la più rudimentale comprensione delle tecnologie di deep learning e di filtraggio dei contenuti che ha posto al centro della sua esistenza futura o che capisce quelle tecnologie , ma non ha interesse nel dispiegarli perché ridurrebbe il profitto che guadagna dall’uso terroristico della sua piattaforma. Il fatto che semplicemente non conosciamo quale di queste alternative sia corretta (o entrambe) e che la società non ha l’obbligo di dirci ci ricorda che Facebook è diventato più potente persino dei nostri governi eletti e, soprattutto, responsabile di no -uno.