Le sfide di Deepfake “cresceranno solo”
Il nuovo rapporto delinea le raccomandazioni per difendersi dai deepfake
Deepfake e conflitti internazionali
I ricercatori sviluppano video deepfake in laboratorio, scoprendo che possono essere creati “con poca difficoltà”
Il team afferma che gli Stati Uniti dovrebbero presumere che i rivali dispongano delle risorse per creare e distribuire deepfake
I ricercatori sostengono che gli Stati Uniti e i loro alleati sviluppino un codice di condotta per un uso responsabile dei deepfake
EVANSTON, Ill. – Sebbene la maggior parte dell’attenzione pubblica sui deepfake si sia concentrata su grandi campagne di propaganda, la nuova tecnologia problematica è molto più insidiosa, secondo un nuovo rapporto di esperti di intelligenza artificiale (AI) e politica estera della Northwestern University e della Brookings Institution.
Nel nuovo rapporto, gli autori discutono di video, immagini e audio deepfake, nonché delle relative sfide alla sicurezza. I ricercatori prevedono che la tecnologia sia sul punto di essere utilizzata molto più ampiamente, anche in operazioni militari e di intelligence mirate.
In definitiva, gli esperti formulano raccomandazioni ai funzionari della sicurezza e ai responsabili politici su come gestire la nuova tecnologia inquietante. Tra le loro raccomandazioni, gli autori sottolineano la necessità per gli Stati Uniti e i loro alleati di sviluppare un codice di condotta per l’uso dei deepfake da parte dei governi.
Il rapporto di ricerca, ” Deepfakes and international conflict “, è stato pubblicato questo mese da Brookings.
“La facilità con cui i deepfake possono essere sviluppati per individui e obiettivi specifici, così come il loro rapido movimento – più recentemente attraverso una forma di intelligenza artificiale nota come diffusione stabile – puntano verso un mondo in cui tutti gli stati e gli attori non statali avranno la capacità di implementare deepfake nelle loro operazioni di sicurezza e intelligence”, scrivono gli autori. “I funzionari della sicurezza e i responsabili politici dovranno prepararsi di conseguenza”.
I coautori della Northwestern includono VS Subrahmanian , esperto di intelligenza artificiale e sicurezza di fama mondiale, Walter P. Murphy Professor of Computer Science presso la McCormick School of Engineering della Northwestern e Buffett Faculty Fellow presso il Buffett Institute of Global Affairs , e Chongyang Gao, Ph.D. . studente nel laboratorio di Subrahmanian. I coautori del Brookings Institute includono Daniel L. Bynam e Chris Meserole.
I deepfake richiedono “poche difficoltà”
Leader del Northwestern Security and AI Lab , Subrahmanian e il suo studente Gao hanno precedentemente sviluppato TREAD (Terrorism Reduction with Artificial Intelligence Deepfakes), un nuovo algoritmo che i ricercatori possono utilizzare per generare i propri video deepfake. Creando deepfake convincenti, i ricercatori possono comprendere meglio la tecnologia nel contesto della sicurezza.
Utilizzando TREAD, Subrahmanian e il suo team hanno creato esempi di video deepfake del defunto terrorista dello Stato islamico Abu Mohammed al-Adnani. Mentre il video risultante sembra e suona come al-Adnani – con espressioni facciali e audio altamente realistici – in realtà sta pronunciando le parole del presidente siriano Bashar al-Assad.
I ricercatori hanno creato il video realistico in poche ore. Il processo è stato così semplice che Subrahmanian e i suoi coautori hanno affermato che i militari e le agenzie di sicurezza dovrebbero semplicemente presumere che i rivali siano in grado di generare video deepfake di qualsiasi funzionario o leader in pochi minuti.
“Chiunque abbia un background ragionevole nell’apprendimento automatico può, con un lavoro sistematico e l’hardware giusto, generare video deepfake su larga scala costruendo modelli simili a TREAD”, scrivono gli autori. “Le agenzie di intelligence di praticamente qualsiasi paese, inclusi certamente gli avversari degli Stati Uniti, possono farlo con poca difficoltà”.
Evitare i “giochi del gatto e del topo”
Gli autori ritengono che gli attori statali e non statali sfrutteranno i deepfake per rafforzare gli sforzi di disinformazione in corso. I deepfake potrebbero aiutare ad alimentare i conflitti legittimando la guerra, seminando confusione, minando il sostegno popolare, polarizzando le società, screditando i leader e altro ancora. A breve termine, gli esperti di sicurezza e intelligence possono contrastare i deepfake progettando e addestrando algoritmi per identificare video, immagini e audio potenzialmente falsi. Tuttavia, è improbabile che questo approccio rimanga efficace a lungo termine.
“Il risultato sarà un gioco del gatto e del topo simile a quello visto con il malware: quando le aziende di sicurezza informatica scoprono un nuovo tipo di malware e sviluppano firme per rilevarlo, gli sviluppatori di malware apportano ‘modifiche’ per eludere il rilevatore”, hanno affermato gli autori. . “Il ciclo di rilevamento-evasione-rilevamento-evasione si svolge nel tempo… Alla fine, potremmo raggiungere un punto finale in cui il rilevamento diventa irrealizzabile o troppo computazionalmente intensivo per essere eseguito rapidamente e su larga scala”.
Per le strategie a lungo termine, gli autori del rapporto formulano diverse raccomandazioni:
Educare il grande pubblico ad aumentare l’alfabetizzazione digitale e il ragionamento critico
Sviluppa sistemi in grado di tracciare il movimento delle risorse digitali documentando ogni persona o organizzazione che gestisce la risorsa
Incoraggia i giornalisti e gli analisti dell’intelligence a rallentare e verificare le informazioni prima di includerle negli articoli pubblicati. “Allo stesso modo, i giornalisti potrebbero emulare prodotti di intelligence che discutono dei ‘livelli di confidenza’ riguardo ai giudizi”.
Utilizzare le informazioni provenienti da fonti separate, come i codici di verifica, per confermare la legittimità delle risorse digitali
Soprattutto, gli autori sostengono che il governo dovrebbe attuare politiche che offrano solidi meccanismi di supervisione e responsabilità per governare la generazione e la distribuzione di contenuti deepfake. Se gli Stati Uniti o i loro alleati vogliono “combattere il fuoco con il fuoco” creando i propri deepfake, allora le politiche devono prima essere concordate e messe in atto. Gli autori affermano che ciò potrebbe includere la creazione di un “Deepfakes Equities Process”, modellato su processi simili per la sicurezza informatica.
“La decisione di generare e utilizzare deepfake non dovrebbe essere presa alla leggera e non senza un’attenta considerazione dei compromessi”, scrivono gli autori. “L’uso di deepfake, progettato in particolare per attaccare obiettivi di alto valore in contesti di conflitto, influenzerà un’ampia gamma di uffici e agenzie governative. Ogni parte interessata dovrebbe avere l’opportunità di offrire input, se necessario e appropriato. Stabilire un processo deliberativo così ampio è la strada migliore per garantire che i governi democratici utilizzino i deepfake in modo responsabile”.