Il pericolo dell’audio-jacking tramite intelligenza artificiale generativa

L’uso di modelli di linguaggio di grandi dimensioni (LLMs) per compromettere transazioni audio in tempo reale, inclusi dati bancari, rappresenta una minaccia emergente. Gli attaccanti, avvalendosi dell’intelligenza artificiale (IA) nel loro arsenale, possono ora manipolare campagne di phishing, attacchi di ingegneria sociale coordinati e creare varianti di ransomware più sofisticate.

Il team di Threat Intelligence di IBM ha dimostrato come sia possibile sfruttare gli LLM per sostituire in tempo reale dettagli finanziari legittimi con istruzioni fraudolente durante una conversazione. Bastano tre secondi della registrazione vocale di una persona per raccogliere dati sufficienti ad addestrare gli LLM a supporto di un attacco dimostrativo, descritto da IBM come di realizzazione sorprendentemente semplice.

La parte all’altro capo della conversazione non è stata in grado di riconoscere le istruzioni finanziarie e le informazioni sul conto come fraudolente.

L’armamento degli LLM per attacchi basati su audio

L’audio-jacking, un attacco basato sull’IA generativa, permette agli attaccanti di intercettare e manipolare conversazioni live senza essere rilevati. IBM ha dimostrato che, addestrando nuovamente gli LLM con tecniche semplici, è possibile alterare transazioni audio in diretta. Né i parlanti né gli ascoltatori coinvolti nella conversazione intercettata si sono resi conto dell’inganno.

Evento VB: Il Tour dell’Impatto dell’IA – NYC

In collaborazione con Microsoft, si terrà a New York il 29 febbraio un evento dedicato a discutere l’equilibrio tra rischi e benefici delle applicazioni IA. È possibile richiedere un invito all’evento esclusivo qui sotto.

Manipolazione in diretta di una conversazione finanziaria

Utilizzando una conversazione finanziaria come caso di test, il team di IBM è riuscito a deviare denaro verso un conto avversario fittizio, senza che i partecipanti si accorgessero della compromissione della loro transazione. L’attacco, facile da realizzare, ha alterato con successo la conversazione senza destare sospetti.

Sostituzione di parole chiave utilizzando “conto bancario” come trigger

La sostituzione contestuale di parole chiave, come “conto bancario”, con dati bancari fraudolenti rappresenta l’essenza dell’audio-jacking. IBM ha mostrato come sia possibile, attraverso l’IA generativa, intercettare e modificare queste informazioni in tempo reale.

Il cuore di un attacco audio parte dagli LLM addestrati

IBM ha creato il suo attacco dimostrativo utilizzando un approccio man-in-the-middle, consentendo il monitoraggio di conversazioni live. Hanno convertito la voce in testo e utilizzato un LLM per interpretare e modificare le frasi in base al contesto, rendendo l’attacco ultra-realistico per entrambe le parti.

Prevenire l’audio-jacking

Il POC di IBM sottolinea la necessità di una maggiore vigilanza contro gli attacchi basati sull’ingegneria sociale. È fondamentale adottare pratiche di sicurezza consolidate, come la ripetizione e il parafrasare le informazioni, l’aggiornamento dei software e l’utilizzo di una forte igiene delle password. La selezione attenta dei dispositivi e dei servizi, unitamente a un approccio di zero-trust, è cruciale per contrastare i tentativi di attacco tramite audio-jacking.

Di ihal