La sintesi vocale basata sull’intelligenza artificiale (AI), conosciuta anche come “voice deepfake,” sta rapidamente emergendo come una preoccupante problematica a livello internazionale. Questo fenomeno preoccupa perché è più semplice da realizzare rispetto ai deepfake delle immagini ed è meno evidente, rendendo più agevole l’inganno delle persone.
Il Washington Post ha recentemente riferito che cloni vocali generati dall’AI, che imitano politici e celebrità, stanno diventando un problema sociale crescente. Allo stesso modo, il New York Times ha segnalato che “AI Obama” e falsi giornalisti stanno facendo la loro comparsa su TikTok.
In un recente caso su TikTok, circolava una voce sintetizzata dall’intelligenza artificiale in cui l’ex presidente degli Stati Uniti, Barack Obama, respingeva le teorie del complotto riguardanti la morte improvvisa di un noto chef. Questo, tuttavia, non era la voce reale di Obama ma una creazione dell’AI.
Oltre a questo caso, si sono diffusi velocemente anche deepfake vocali dell’emittente televisiva Oprah Winfrey, coinvolta in accuse di prostituzione, e storie che coinvolgono l’attore Jamie Foxx, che sosteneva di essere diventato cieco dopo aver ricevuto il vaccino contro il coronavirus. La scorsa settimana, la voce dell’attore Tom Hanks è apparsa in una pubblicità di un dentista, scatenando un annuncio ufficiale di smentita.
Questo problema non è confinato agli Stati Uniti. Lo scorso mese in Slovacchia è circolato un falso file audio che ritraeva il leader del Partito Progressista che chiedeva tangenti per manipolare i voti, scatenando la rabbia tra la popolazione. Nel Regno Unito, un audio di un leader laburista che insultava un dipendente su Twitter è diventato virale. Anche in Sudan, in Africa, una registrazione audio falsa dell’ex capo di stato Amir al-Bashir è stata diffusa sui social media, scatenando uno scandalo. Tutto ciò si è rivelato essere il risultato di voci deepfake.
News Guard, un’azienda specializzata nel monitoraggio delle notizie false, ha segnalato a settembre di aver individuato 17 account su TikTok che diffondevano informazioni false utilizzando la replicazione vocale dell’AI. Questi contenuti sono stati visualizzati ben 336 milioni di volte, con 14,5 milioni di “mi piace”.
La ragione per cui questo fenomeno si verifica così frequentemente è perché la duplicazione vocale è più semplice e naturale rispetto alla duplicazione di immagini. Eleven Labs, leader in questo campo, permette persino alle persone comuni di caricare la voce di una celebrità e ottenere una voce sintetizzata in pochi secondi per soli 5 dollari al mese.
D’altro canto, l’AI per la generazione di immagini può rilevare anomalie come un numero anomalo di dita o immagini sfocate. Recentemente, il numero di set di dati vocali in lingua straniera è aumentato ed è noto che anche le capacità di replicazione vocale in lingua straniera sono migliorate notevolmente.
Jack Brewster, ricercatore di Newsguard, ha osservato: “Nel caso del deepfake del presidente Obama, il volto può sembrare goffo, ma la voce è abbastanza credibile.”
Tuttavia, le società di social media faticano a rilevare la duplicazione vocale poiché i contenuti non possono essere rimossi senza autorizzazione a meno che non si possa dimostrare che il file vocale è falso. Inoltre, poche società di software per la clonazione vocale dispongono di barriere efficaci per prevenire l’uso illegale.
Gli esperti concordano sul fatto che la clonazione vocale tramite intelligenza artificiale potrebbe avere un impatto significativo sulle future elezioni. Hanny Farid, esperto di deepfake e professore di ingegneria elettrica e informatica alla UC Berkeley, ha dichiarato: “I file audio falsi si stanno diffondendo non solo negli Stati Uniti ma anche in tutto il mondo”. Ha aggiunto che in paesi con situazioni politiche instabili o in guerra, il controllo sarà sicuramente molto più difficile.
Ha concluso: “In effetti, i canali sui social media che diffondono informazioni false hanno molti follower, ma per le società di social media, rimuoverli non risolverà il problema.” Ha sottolineato che alla fine, le società di social media sono in ultima analisi responsabili di affrontare questa problematica.
Nel frattempo, la scorsa settimana, un gruppo di senatori statunitensi ha presentato il progetto di legge “No Fakes Act,” che punirebbe la produzione o la diffusione di immagini o audio generati dall’AI senza consenso.