McAfee Corp., leader globale nella protezione online, ha pubblicato un rapporto che rivela come la tecnologia dell’intelligenza artificiale (AI) stia alimentando un aumento delle truffe vocali online. Il rapporto, intitolato “The Artificial Imposter”, spiega come bastino solo tre secondi di audio per clonare la voce di una persona e come l’accesso e la facilità d’uso degli strumenti di intelligenza artificiale stiano aiutando i criminali informatici a ridimensionare i loro sforzi in modi sempre più convincenti.

Il sondaggio condotto da McAfee ha intervistato 7.054 persone provenienti da sette Paesi e ha scoperto che un quarto degli adulti aveva già sperimentato una sorta di truffa vocale basata sull’intelligenza artificiale, con il 77% delle vittime che ha affermato di aver perso denaro di conseguenza. Inoltre, il 70% degli adulti non è sicuro di poter identificare la versione clonata dalla realtà, rendendo questa tecnica sempre più pericolosa e diffusa.

McAfee ha inoltre condotto uno studio approfondito della tecnologia di clonazione vocale AI e dell’uso da parte dei criminali informatici. I ricercatori hanno rilevato che gli strumenti di clonazione vocale AI sono disponibili sia gratuitamente che a pagamento su Internet e che molti di essi richiedono solo un livello base di esperienza e competenza per essere utilizzati. In un caso, sono stati sufficienti solo tre secondi di audio per produrre una corrispondenza dell’85%, ma con maggiori investimenti e impegno, è possibile aumentare la precisione.

Il sondaggio ha rilevato che l’aumento dei deepfake e della disinformazione ha portato le persone a essere più diffidenti nei confronti di ciò che vedono online, con il 32% degli adulti che afferma di avere meno fiducia nei social media che mai. Il costo di cadere in una truffa vocale AI può essere significativo, con più di un terzo delle persone che hanno perso denaro affermando che gli era costato più di $ 1.000, mentre il 7% è stato ingannato tra $ 5.000 e $ 15.000.

McAfee consiglia alcune precauzioni per evitare di cadere in queste truffe, come impostare una “parola in codice” verbale con bambini, familiari o amici intimi fidati che solo loro potrebbero conoscere, mettere sempre in discussione la fonte delle chiamate o dei messaggi e pensare prima di cliccare e condividere.

L’intelligenza artificiale offre incredibili opportunità, ma con qualsiasi tecnologia c’è sempre la possibilità che venga utilizzata maliziosamente nelle mani sbagliate. È importante rimanere vigili e adottare misure proattive per proteggere te e i tuoi cari.

Alcune delle altre precauzioni suggerite da McAfee includono la limitazione dell’impronta digitale delle proprie informazioni personali attraverso l’utilizzo di servizi di protezione dell’identità e della privacy, che possono aiutare a garantire che le informazioni personali non siano accessibili o avvisare se le informazioni private si dirigono verso il Dark Web. Inoltre, McAfee consiglia di addestrare i modelli di dati utilizzati dalla tecnologia AI per clonare le voci, poiché ciò può aumentare la precisione delle voci clonate e rendere più difficile per i criminali informatici indurre qualcuno a consegnare i propri soldi o intraprendere altre azioni richieste.

Il rapporto di McAfee mostra come la tecnologia dell’intelligenza artificiale stia cambiando il gioco per i criminali informatici, rendendo più facile che mai clonare la voce di una persona e indurre un contatto stretto a inviare denaro. Tuttavia, il rapporto sottolinea anche come sia possibile proteggersi dalle truffe vocali AI adottando alcune semplici precauzioni.

In definitiva, il rapporto di McAfee fornisce un avvertimento importante sui pericoli delle truffe vocali AI e sottolinea l’importanza di rimanere vigili e adottare misure proattive per proteggere se stessi e i propri cari.

Di Fantasy