Home / Intelligenza artificiale pericolo / Che cosa sono i deepfakes?

Che cosa sono i deepfakes?


Man mano che i deepfake diventano più facili da realizzare e più prolifici, viene prestata maggiore attenzione a loro. I deepfakes sono diventati il ​​punto focale delle discussioni che coinvolgono l’etica dell’IA, la disinformazione, l’apertura delle informazioni e di Internet e la regolamentazione. Vale la pena essere informati sui deepfake e avere una comprensione intuitiva di cosa siano i deepfake. Questo articolo chiarirà la definizione di deepfake, esaminerà i loro casi d’uso, discuterà come i deepfake possono essere rilevati ed esaminerà le implicazioni dei deepfake per la società.

Che cos’è un Deepfakes?
Prima di continuare a discutere ulteriormente dei deepfake, sarebbe utile dedicare un po ‘di tempo e chiarire cosa sono realmente i “deepfake” . Esiste una notevole confusione riguardo al termine Deepfake, e spesso il termine viene applicato in modo errato a qualsiasi mezzo falsificato, indipendentemente dal fatto che si tratti o meno di un vero e proprio deepfake. Per qualificarsi come Deepfake, i media falsi in questione devono essere generati con un sistema di apprendimento automatico, in particolare una rete neurale profonda.

L’ingrediente chiave di deepfakes è l’apprendimento automatico. L’apprendimento automatico ha permesso ai computer di generare automaticamente video e audio in modo relativamente rapido e semplice. Le reti neurali profonde vengono addestrate sul filmato di una persona reale in modo che la rete apprenda come le persone guardano e si muovono nelle condizioni ambientali target. La rete formata viene quindi utilizzata sulle immagini di un altro individuo e ampliata con ulteriori tecniche di computer grafica al fine di combinare la nuova persona con il filmato originale. Un algoritmo encoder viene utilizzato per determinare le somiglianze tra la faccia originale e la faccia di destinazione. Una volta isolate le caratteristiche comuni delle facce, viene utilizzato un secondo algoritmo AI chiamato decoder. Il decodificatore esamina le immagini codificate (compresse) e le ricostruisce in base alle caratteristiche delle immagini originali. Vengono utilizzati due decodificatori, uno sulla faccia del soggetto originale e il secondo sulla faccia della persona bersaglio. Per poter effettuare lo scambio, il decodificatore addestrato sulle immagini della persona X viene alimentato con le immagini della persona Y. Il risultato è che il viso della persona Y è la ricostruzione delle espressioni facciali e dell’orientamento della persona X.

Attualmente, ci vuole ancora un bel po ‘di tempo prima che un deepfake sia realizzato. Il creatore del falso deve impiegare molto tempo a regolare manualmente i parametri del modello, poiché parametri non ottimali porteranno a imperfezioni evidenti e difetti nell’immagine che rivelano la vera natura del falso.

Sebbene si presuma spesso che la maggior parte dei deepfake siano realizzati con un tipo di rete neurale chiamata rete generativa contraddittoria (GAN) , molti deepfake (forse la maggior parte) creati in questi giorni non si basano sui GAN. Mentre i GAN hanno svolto un ruolo di primo piano nella creazione dei primi deepfake, la maggior parte dei video di deepfake sono creati con metodi alternativi, secondo Siwei Lyu di SUNY Buffalo.

Ci vuole una quantità sproporzionatamente grande di dati di addestramento per addestrare un GAN e i GAN spesso impiegano molto più tempo per il rendering di un’immagine rispetto ad altre tecniche di generazione delle immagini. I GAN sono anche migliori per la generazione di immagini statiche rispetto ai video, poiché i GAN hanno difficoltà a mantenere le coerenze da un fotogramma all’altro. È molto più comune utilizzare un codificatore e più decodificatori per creare deepfake.

A cosa servono i Deepfakes?
Molti dei deepfake trovati online sono di natura pornografica. Secondo una ricerca condotta da Deeptrace, una società di intelligenza artificiale, su un campione di circa 15.000 video di deepfake scattati nel settembre del 2019, circa il 95% di essi era di natura pornografica. Una preoccupante implicazione di questo fatto è che, man mano che la tecnologia diventa più facile da usare, potrebbero sorgere incidenti di falsa vendetta pornografica.

Tuttavia, non tutti i falsi profondi sono di natura pornografica. Esistono usi più legittimi per la tecnologia deepfake. La tecnologia audio deepfake potrebbe aiutare le persone a trasmettere le loro voci regolari dopo che sono state danneggiate o perse a causa di malattie o lesioni. Deepfakes può anche essere usato per nascondere i volti di persone che si trovano in situazioni sensibili e potenzialmente pericolose, pur consentendo di leggere le loro labbra ed espressioni. La tecnologia Deepfake può potenzialmente essere utilizzata per migliorare il doppiaggio di film in lingua straniera, aiutare nella riparazione di supporti vecchi e danneggiati e persino creare nuovi stili artistici.

Deepfakes non video
Mentre la maggior parte delle persone pensa ai video falsi quando sente il termine “deepfake”, i video falsi non sono affatto l’unico tipo di media falsi prodotti con la tecnologia deepfake. La tecnologia Deepfake viene utilizzata anche per creare falsi audio e fotografici. Come accennato in precedenza, i GAN vengono spesso utilizzati per generare immagini false. Si pensa che ci siano stati molti casi di falsi profili LinkedIn e Facebook che hanno immagini di profilo generate con algoritmi deepfake.

È anche possibile creare deepfake audio. Le reti neurali profonde vengono addestrate per produrre cloni vocali / skin vocali di persone diverse, tra cui celebrità e politici. Un famoso esempio di Deepfake audio è quando la società di intelligenza artificiale Dessa ha fatto uso di un modello di intelligenza artificiale, supportato da algoritmi non-AI, per ricreare la voce dell’host podcast Joe Rogan.

Come individuare Deepfakes
Man mano che i deepfake diventano sempre più sofisticati, distinguerli dai media autentici diventerà sempre più duro. Attualmente, ci sono alcuni segni rivelatori che le persone possono cercare per accertare se un video è potenzialmente un falso, come scarsa sincronizzazione delle labbra, movimento innaturale, sfarfallio attorno al bordo del viso e deformazione di dettagli fini come capelli, denti o riflessi. Altri potenziali segni di un falso sono le parti di qualità inferiore dello stesso video e il lampeggiamento irregolare degli occhi.

Mentre questi segnali possono aiutare a individuare un deepfake al momento, poiché la tecnologia deepfake migliora l’unica opzione per il rilevamento affidabile di deepfake potrebbero essere altri tipi di IA addestrati per distinguere i falsi dai media reali.

Le società di intelligenza artificiale, tra cui molte delle grandi aziende tecnologiche, stanno studiando metodi per rilevare i deepfake. Lo scorso dicembre è stata avviata una sfida di rilevamento di deepfake, supportata da tre giganti della tecnologia: Amazon, Facebook e Microsoft. I team di ricerca di tutto il mondo hanno lavorato sui metodi per rilevare i deepfake, in competizione per sviluppare i migliori metodi di rilevamento. Altri gruppi di ricercatori, come un gruppo di ricercatori combinati di Google e Jigsaw, stanno lavorando a un tipo di “analisi forense” in grado di rilevare video che sono stati modificati, rendendo i loro set di dati open source e incoraggiando gli altri a sviluppare metodi di rilevamento approfonditi. La già citata Dessa ha lavorato per affinare le tecniche di rilevamento dei deepfake, cercando di garantire che i modelli di rilevamento funzionino sui video deepfake trovati in natura (su Internet) piuttosto che solo su set di dati di formazione e test precompilati, come il set di dati open source fornito da Google.

Ci sono anche altre strategie che vengono studiate per far fronte alla proliferazione dei deepfake. Ad esempio, verificare la concordanza dei video con altre fonti di informazione è una strategia. Le ricerche possono essere effettuate per video di eventi potenzialmente presi da altre angolazioni, oppure è possibile verificare le incongruenze dei dettagli di sfondo del video (come modelli meteorologici e posizioni). Oltre a ciò, un sistema di contabilità online Blockchain potrebbe registrare video quando vengono inizialmente creati, mantenendo l’audio e le immagini originali in modo che i video derivati ​​possano sempre essere controllati per la manipolazione.

In definitiva, è importante creare metodi affidabili per rilevare i deepfake e che questi metodi di rilevamento siano al passo con i più recenti progressi della tecnologia dei deepfake. Mentre è difficile sapere esattamente quali saranno gli effetti dei deepfake, se non ci sono metodi affidabili per rilevare i deepfake (e altre forme di falsi media), la disinformazione potrebbe potenzialmente scatenarsi e degradare la fiducia delle persone nella società e nelle istituzioni.

Implicazioni di Deepfakes
Quali sono i pericoli di far proliferare incontrollato il falso profondo?

Uno dei maggiori problemi che i deepfakes creano attualmente è la pornografia non consensuale, progettata combinando i volti delle persone con video e immagini pornografici. Gli etici dell’IA sono preoccupati che i deepfake vedranno un maggiore uso nella creazione di falsi porno vendetta. Oltre a ciò, i deepfake potrebbero essere utilizzati per maltrattare e danneggiare la reputazione di chiunque, in quanto potrebbero essere utilizzati per collocare le persone in scenari controversi e compromettenti.

Le aziende e gli specialisti della sicurezza informatica hanno espresso preoccupazione per l’uso di deepfakes per facilitare truffe, frodi ed estorsioni. Presumibilmente, l’audio deepfake è stato utilizzato per convincere i dipendenti di un’azienda a trasferire denaro ai truffatori

È possibile che i deepfake possano avere effetti dannosi anche oltre quelli sopra elencati. Deepfakes potrebbe potenzialmente erodere la fiducia delle persone nei media in generale e rendere difficile per le persone distinguere tra notizie vere e notizie false. Se molti video sul Web sono falsi, diventa più facile per governi, aziende e altre entità mettere in dubbio controversie legittime e pratiche non etiche.

Quando si tratta di governi, i deepfake possono persino minacciare il funzionamento della democrazia. La democrazia richiede che i cittadini siano in grado di prendere decisioni informate sui politici sulla base di informazioni affidabili. La disinformazione mina i processi democratici. Ad esempio, il presidente del Gabon, Ali Bongo, è apparso in un video nel tentativo di rassicurare la cittadinanza del Gabon. Si presumeva che il presidente fosse indisposto per un lungo periodo di tempo e la sua improvvisa apparizione in un probabile video falso ha dato il via a un tentativo di colpo di stato. Il presidente Donald Trump ha affermato che una registrazione audio di lui che si vantava di aver catturato donne dai genitali era falsa , nonostante la descrivesse anche come “chiacchiere negli spogliatoi”. Il principe Andrew ha anche affermato che un’immagine fornita dall’avvocato di Emily Maitilis era falsa, sebbene l’avvocato abbia insistito sulla sua autenticità.

In definitiva, mentre ci sono usi legittimi per la tecnologia deepfake, ci sono molti potenziali danni che possono derivare dall’uso improprio di quella tecnologia. Per tale motivo, è estremamente importante creare e mantenere metodi per determinare l’autenticità dei media.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi