Deepfakes sta per scatenare la società. Non siamo preparati.
Il mese scorso durante la serie di documentari di successo di ESPN The Last Dance , State Farm ha debuttato in una pubblicità televisiva che è diventata una delle pubblicità più discusse nella memoria recente. Sembrava mostrare filmati del 1998 di un analista ESPN che faceva previsioni incredibilmente accurate sull’anno 2020.
Come si è scoperto, la clip non era originale: è stata generata utilizzando un’intelligenza artificiale all’avanguardia. La pubblicità ha sorpreso, divertito e deliziato gli spettatori.
Ciò che gli spettatori avrebbero dovuto provare, tuttavia, era una profonda preoccupazione.
La pubblicità della State Farm era un esempio benigno di un nuovo e importante fenomeno pericoloso nell’intelligenza artificiale: i deepfakes. La tecnologia Deepfake consente a chiunque disponga di un computer e di una connessione Internet di creare foto e video dall’aspetto realistico di persone che dicono e fanno cose che in realtà non hanno detto o fatto.
Una combinazione delle frasi “apprendimento profondo” e “falso”, i deepfake sono emersi per la prima volta su Internet alla fine del 2017, alimentati da un nuovo metodo di apprendimento profondo noto come reti generative di contraddittorio (GAN).
Diversi video di deepfake sono diventati virali di recente, dando a milioni di persone in tutto il mondo il loro primo assaggio di questa nuova tecnologia: il presidente Obama usa un’esplosione per descrivere il presidente Trump, Mark Zuckerberg ammettendo che il vero obiettivo di Facebook è manipolare e sfruttare i suoi utenti, Bill Hader si sta trasformando in Al Pacino in un talk show a tarda notte.
All’inizio del 2019 c’erano 7.964 deepfake video online, secondo un rapporto della startup Deeptrace; solo nove mesi dopo, quella cifra era salita a 14.678. Da allora non ha più continuato a gonfiarsi.
Sebbene impressionante, la tecnologia di deepfake di oggi non è ancora abbastanza in linea con le riprese video autentiche: osservando da vicino, è in genere possibile dire che un video è un deepfake. Ma la tecnologia sta migliorando a un ritmo mozzafiato. Gli esperti prevedono che i deepfake saranno presto indistinguibili dalle immagini reali.
“A gennaio 2019, i falsi profondi erano buggy e sfarfallio”, ha dichiarato Hany Farid, professore di UC Berkeley ed esperto di deepfake. “Nove mesi dopo, non ho mai visto nulla di simile a quanto stanno andando veloci. Questa è la punta dell’iceberg. “
Oggi ci troviamo in un punto di flesso. Nei mesi e negli anni a venire, i deepfake minacciano di passare da una stranezza di Internet a una forza politica e sociale ampiamente distruttiva. La società deve agire ora per prepararsi.
Quando vedere non è credere
Il primo caso d’uso a cui la tecnologia deepfake è stata ampiamente applicata – come spesso accade con le nuove tecnologie – è la pornografia. A settembre 2019, il 96% dei video deepfake online erano pornografici, secondo il rapporto Deeptrace.
Sono emersi una manciata di siti Web dedicati specificamente alla pornografia approfondita, che hanno raccolto collettivamente centinaia di milioni di visualizzazioni negli ultimi due anni. La pornografia di Deepfake è quasi sempre non consensuale, implicando la sintesi artificiale di video espliciti che presentano celebrità famose o contatti personali.
Da questi angoli bui della rete, l’uso di deepfakes ha iniziato a diffondersi nella sfera politica, dove il potenziale di caos è ancora maggiore.
Non richiede molta immaginazione per afferrare il danno che potrebbe essere fatto se a intere popolazioni potessero essere mostrati video fabbricati che ritengono reali. Immagina filmati di un politico che si dedica a corruzione o aggressioni sessuali proprio prima delle elezioni; o di soldati statunitensi che commettono atrocità contro civili all’estero; o del presidente Trump che dichiara il lancio di armi nucleari contro la Corea del Nord. In un mondo in cui esiste anche qualche incertezza sull’autenticità di tali clip, le conseguenze potrebbero essere catastrofiche.
A causa della diffusa accessibilità della tecnologia, tali filmati potrebbero essere creati da chiunque: attori sponsorizzati dallo stato, gruppi politici, individui solitari.
In un recente rapporto, The Brookings Institution ha riassunto cupamente la gamma di pericoli politici e sociali che i deepfake rappresentano: “distorcere il discorso democratico; manipolare le elezioni; erodere la fiducia nelle istituzioni; indebolimento del giornalismo; esacerbare le divisioni sociali; minando la sicurezza pubblica; e infliggendo danni difficili da riparare alla reputazione di persone di spicco, compresi funzionari eletti e candidati alla carica. “
Date le poste in gioco, i legislatori statunitensi hanno iniziato a prestare attenzione.
“Ai vecchi tempi, se volevi minacciare gli Stati Uniti, avevi bisogno di 10 portaerei, armi nucleari e missili a lungo raggio”, ha recentemente dichiarato il senatore degli Stati Uniti Marco Rubio . “Oggi …. tutto ciò di cui hai bisogno è la capacità di produrre un video falso molto realistico che potrebbe minare le nostre elezioni, che potrebbe gettare il nostro paese in una tremenda crisi internamente e indebolirci profondamente”.
I tecnologi sono d’accordo. Nelle parole di Hani Farid, uno dei massimi esperti mondiali di deepfakes: “Se non riusciamo a credere ai video, all’audio, all’immagine, alle informazioni raccolte da tutto il mondo, ciò rappresenta un grave rischio per la sicurezza nazionale. ”
Questo rischio non è più solo ipotetico: ci sono primi esempi di falsi che influenzano la politica nel mondo reale. Gli esperti avvertono che questi incidenti sono canarini in una miniera di carbone.
Il mese scorso, un gruppo politico in Belgio ha pubblicato un video approfondito del primo ministro belga, tenendo un discorso che collegava l’epidemia COVID-19 al danno ambientale e ha chiesto un’azione drastica sui cambiamenti climatici. Almeno alcuni spettatori credevano che il discorso fosse reale.
Ancora più insidiosamente, la semplice possibilità che un video possa essere un falso può creare confusione e facilitare l’inganno politico indipendentemente dal fatto che la tecnologia del falso sia stata effettivamente utilizzata. L’esempio più drammatico di questo viene dal Gabon, un piccolo paese dell’Africa centrale.
Alla fine del 2018, il presidente del Gabon Ali Bongo non era stato visto in pubblico per mesi. Correva voce che non fosse più abbastanza in salute per l’ufficio o che fosse morto. Nel tentativo di placare queste preoccupazioni e riaffermare la leadership di Bongo sul paese, la sua amministrazione ha annunciato che avrebbe dato un indirizzo televisivo nazionale in occasione del capodanno.
Nell’indirizzo video (che vale la pena esaminare personalmente ), Bongo appare rigido e pungente, con discorsi innaturali e manierismi facciali. Il video ha immediatamente infiammato i sospetti che il governo nascondesse qualcosa al pubblico. Gli oppositori politici di Bongo dichiararono che il filmato era un falso e che il presidente era inabile o morto. Voci di una cospirazione profonda si diffondono rapidamente sui social media.
La situazione politica in Gabon si è rapidamente destabilizzata. Nel giro di una settimana, i militari avevano lanciato un colpo di stato – il primo nel paese dal 1964 – citando il video di Capodanno come prova che qualcosa non andava nel presidente.
Fino ad oggi gli esperti non possono dire in modo definitivo se il video di Capodanno fosse autentico, anche se molti lo credono. (Il colpo di stato non ebbe successo; da allora Bongo è apparso in pubblico e rimane in carica oggi).
Ma se il video fosse reale è quasi irrilevante. La lezione più ampia è che l’emergere di deepfakes renderà sempre più difficile per il pubblico distinguere tra ciò che è reale e ciò che è falso, una situazione che gli attori politici sfrutteranno inevitabilmente, con conseguenze potenzialmente devastanti.
“La gente sta già sfruttando il fatto che esistono dei deepfake per screditare prove video autentiche”, ha dichiarato il professore dell’USC Hao Li. “Anche se ci sono filmati di te che fai o dici qualcosa, puoi dire che è stato un falso ed è molto difficile provare il contrario.”
In due recenti incidenti, i politici in Malesia e in Brasile hanno cercato di eludere le conseguenze di compromettere i filmati video sostenendo che i video erano profondi. In entrambi i casi, nessuno è stato in grado di stabilire definitivamente il contrario, e l’opinione pubblica è rimasta divisa.
La ricercatrice Aviv Ovadya mette in guardia da ciò che definisce “apatia della realtà”: “È uno sforzo eccessivo per capire cosa è reale e cosa non lo è, quindi sei più disposto ad andare avanti con qualunque sia la tua precedente affiliazione”.
In un mondo in cui vedere non crede più, la capacità di una grande comunità di concordare su ciò che è vero, e tanto meno di impegnarsi in un dialogo costruttivo al riguardo, sembra improvvisamente precaria.
Un gioco di gatto e topo tecnologici
La tecnologia di base che rende possibili i deepfake è una branca del deep learning nota come reti generative contraddittorie (GAN). I GAN sono stati inventati da Ian Goodfellow nel 2014 durante i suoi studi di dottorato presso l’Università di Montreal, uno dei migliori istituti di ricerca sull’IA al mondo.
Nel 2016, Yann LeCun, grande intelligenza artificiale, ha definito i GAN “l’idea più interessante degli ultimi dieci anni nel machine learning”.
Prima dello sviluppo di GAN, le reti neurali erano abili nel classificare i contenuti esistenti (ad esempio, nel comprendere il linguaggio o nel riconoscere i volti) ma non nel creare nuovi contenuti. I GAN hanno dato alle reti neurali il potere non solo di percepire, ma di creare.
La svolta concettuale di Goodfellow è stata quella di progettare le GAN utilizzando due reti neurali separate – una nota come “generatore”, l’altra nota come “discriminatore” – e metterle l’una contro l’altra.
A partire da un determinato set di dati (ad esempio una raccolta di foto di volti umani), il generatore inizia a generare nuove immagini che, in termini di pixel, sono matematicamente simili alle immagini esistenti. Nel frattempo, al discriminatore vengono fornite foto senza che venga detto se provengono dal set di dati originale o dall’output del generatore; il suo compito è identificare quali foto sono state generate sinteticamente.
Mentre le due reti lavorano iterativamente l’una contro l’altra – il generatore che cerca di ingannare il discriminatore, il discriminatore che cerca di sovvenzionare le creazioni del generatore – si perfezionano a vicenda. Alla fine il tasso di successo della classificazione del discriminatore scende al 50%, non meglio di un’ipotesi casuale, il che significa che le foto generate sinteticamente sono diventate indistinguibili dagli originali.
Uno dei motivi per cui i deepfake sono proliferati è l’etica open source della community di machine learning: a partire dall’articolo originale di Goodfellow, ogni volta che si verifica un progresso nella ricerca sulla modellazione generativa, la tecnologia è generalmente resa disponibile gratuitamente per chiunque nel mondo da scaricare e utilizzare.
Dato che i deepfake si basano sull’intelligenza artificiale in primo luogo, alcuni considerano l’IA come una soluzione per applicazioni dannose di deepfake. Ad esempio, i ricercatori hanno creato sofisticati sistemi di rilevamento dei picchi profondi che valutano l’illuminazione, le ombre, i movimenti del viso e altre caratteristiche al fine di contrassegnare le immagini che vengono fabbricate. Un altro approccio difensivo innovativo è quello di aggiungere un filtro a un file di immagine che rende impossibile usare quell’immagine per generare un deepfake.
Sono emerse alcune startup che offrono software per difendersi dai deepfake, inclusi Truepic e Deeptrace.
Tuttavia, è improbabile che tali soluzioni tecnologiche possano arginare la diffusione dei deepfake a lungo termine. Nella migliore delle ipotesi, porteranno a un’infinita dinamica cat-and-mouse, simile a quella che esiste oggi nella cybersecurity, in cui le scoperte sul lato del rilevamento dei falsi promuovono ulteriori innovazioni nella generazione dei falsi. La natura open source della ricerca sull’intelligenza artificiale rende questo ancora più probabile.
Per fare un esempio , nel 2018 i ricercatori dell’Università di Albany hanno pubblicato un’analisi che mostra che le irregolarità lampeggianti erano spesso un segno rivelatore che un video era falso. Fu una svolta utile nella lotta contro i deepfake – fino a quando, nel giro di pochi mesi, iniziarono a emergere nuovi video di deepfake che correggevano per questa imperfezione lampeggiante.
“Siamo superati”, ha detto Farid. “Il numero di persone che lavorano sul lato della sintesi video, rispetto al lato del rivelatore, è 100 a 1.”
Il percorso in avanti
Guardando oltre i rimedi puramente tecnologici, quali misure legislative, politiche e sociali possiamo prendere per difenderci dai pericoli dei deepfakes?
Una soluzione allettante e semplice è approvare leggi che rendono illegale la creazione o la diffusione di deepfakes. Lo stato della California ha sperimentato questo approccio, promulgando una legge l’anno scorso che rende illegale la creazione o la distribuzione di deepfakes di politici entro 60 giorni dalle elezioni. Ma un divieto generalizzato ha sfide sia costituzionali che pratiche.
Il primo emendamento della Costituzione degli Stati Uniti sancisce la libertà di espressione. Qualsiasi legge che vieti i contenuti online, in particolare i contenuti politici, rischia di infrangere queste protezioni costituzionali.
“Il discorso politico gode del massimo livello di protezione secondo la legge degli Stati Uniti”, ha affermato la professoressa di legge Jane Kirtley. “Il desiderio di proteggere le persone dai contenuti ingannevoli in vista di un’elezione è molto forte e molto comprensibile, ma sono scettico sul fatto che saranno in grado di far rispettare la legge della California”.
Al di là delle preoccupazioni costituzionali, i divieti di frode si dimostreranno impraticabili da applicare a causa dell’anonimato e della sconfinatezza di Internet.
Altri quadri legali esistenti che potrebbero essere implementati per combattere i deepfakes includono il copyright, la diffamazione e il diritto alla pubblicità . Ma data l’ampia applicabilità della dottrina del fair use , l’utilità di queste strade legali può essere limitata.
A breve termine, la soluzione più efficace potrebbe provenire dalle principali piattaforme tecnologiche come Facebook, Google e Twitter intraprendendo volontariamente azioni più rigorose per limitare la diffusione di deepfake dannosi.
Fare affidamento su società private per risolvere comprensibilmente ampi problemi politici e sociali rende molti a disagio. Eppure, come gli studiosi di legge Bobby Chesney e Danielle Citron metterlo , queste piattaforme tecnologiche terms-of-service accordi sono ‘la più importante documenti che disciplinano vocale digitale nel mondo di oggi.’ Di conseguenza, le politiche sui contenuti di queste società potrebbero essere “il meccanismo di risposta più saliente di tutti” ai deepfakes.
Un’opzione legislativa correlata è quella di modificare la controversa Sezione 230 della Communications Decency Act . Scritta nei primi giorni dell’Internet commerciale, la Sezione 230 offre alle società Internet un’immunità civile quasi completa per qualsiasi contenuto pubblicato sulle loro piattaforme da terzi. Riportare indietro queste protezioni renderebbe le aziende come Facebook legalmente responsabili di limitare la diffusione di contenuti dannosi sui loro siti. Ma un simile approccio solleva complesse preoccupazioni sulla libertà di parola e sulla censura.
Alla fine, nessuna soluzione singola sarà sufficiente. Un primo passo essenziale è semplicemente quello di aumentare la consapevolezza pubblica delle possibilità e dei pericoli dei deepfake. Una cittadinanza informata è una difesa cruciale contro la disinformazione diffusa.
La recente ascesa di notizie false ha portato a temere che stiamo entrando in un mondo ” post-verità “. Deepfakes minaccia di intensificare e accelerare questa traiettoria. Il prossimo capitolo importante di questo dramma è probabilmente dietro l’angolo: le elezioni del 2020. La posta in gioco non potrebbe essere più alta.
“L’uomo di fronte al serbatoio in Piazza Tiananmen ha spostato il mondo”, ha detto il professore della New York University Nasir Memon. “Nixon al telefono gli è costato la sua presidenza. Le immagini dell’orrore dei campi di concentramento alla fine ci hanno messo in azione. Se l’idea di non credere a ciò che vedi è sotto attacco, questo è un grosso problema. Bisogna ripristinare la verità nel vedere di nuovo. “