La storia di Ruth Card, una anziana canadese che ha inviato denaro per la cauzione a un nipote finito in prigione, è un esempio delle conseguenze negative che l’IA può avere sulla nostra vita quotidiana. Infatti, la richiesta di aiuto proveniva da una voce falsa generata tramite l’intelligenza artificiale. Secondo la Federal Trade Commission, negli Stati Uniti nel solo 2022 sono state ricevute oltre 36mila segnalazioni di persone spinte a dare denaro a impostori che si spacciavano per parenti o amici. Le truffe con voci fasulle sono ormai sempre più comuni e il problema rischia di peggiorare con l’evoluzione dell’IA nella creazione di deepfake audio sempre più credibili.
Ci sono già strumenti disponibili online che permettono di clonare qualunque voce in pochi minuti, come Eleven Labs o Resemble. Il processo richiede l’inserimento di materiale di apprendimento, ovvero registrazioni chiare della voce che si vuole imitare. Una volta creato, si può far recitare alla voce artificiale il testo desiderato. Tuttavia, questo meccanismo può mettere a rischio chiunque, perché la nostra voce è uno dei dati che cediamo online, in particolare nei video pubblicati sui social network.
Le vittime più colpite da questa pratica sono le celebrità, come dimostra l’invadenza di deepfake audio su 4Chan con protagonisti personaggi come Joe Rogan o Ben Shapiro. Anche Emma Watson, l’attrice che ha interpretato Hermione in Harry Potter, è stata vittima di un audio generato da IA in cui legge alcuni passi del Mein Kampf.
Il problema è che non sempre è facile distinguere il vero dal falso, anche per chi ha una certa esperienza online. Ci sono video su TikTok, come quello in cui Taylor Swift commenta in modo provocatorio il prezzo dei biglietti dei suoi concerti sul rivenditore Ticketmaster, che sembrano reali ma in realtà sono generati artificialmente dall’IA.
Quindi, la capacità dell’IA di creare contenuti credibili, siano essi testi, immagini o audio, rappresenta una nuova frontiera che presenta rischi per la sicurezza delle persone. È importante essere consapevoli di questo fenomeno e prendere le precauzioni necessarie per evitare di diventare vittime di truffe o di false informazioni.
Inoltre, il problema delle voci generate artificialmente dall’IA non riguarda solo le truffe e i falsi audio, ma può anche avere conseguenze negative sulla privacy e sulla sicurezza delle persone. Ad esempio, un malintenzionato potrebbe utilizzare un audio generato artificialmente per diffamare qualcuno, oppure per impersonare un’altra persona e ottenere informazioni riservate.
È quindi importante che l’industria tecnologica sviluppi soluzioni per contrastare l’abuso dell’IA nella creazione di audio falsi, come ad esempio l’introduzione di sistemi di segnalazione o di identificazione delle voci generate artificialmente. Inoltre, è importante che gli utenti siano informati su questi rischi e che adottino le precauzioni necessarie per proteggere la propria privacy e sicurezza online, ad esempio limitando la condivisione di materiale audio e video contenente la propria voce.
In conclusione, l’evoluzione dell’IA nella creazione di audio credibili rappresenta una nuova sfida per la sicurezza online. È importante che le persone siano consapevoli di questi rischi e che l’industria tecnologica sviluppi soluzioni efficaci per prevenirli e contrastarli.