Gli aggressori usano “l’intelligenza artificiale offensiva” per creare deepfake per le campagne di phishing
L’intelligenza artificiale consente alle organizzazioni di automatizzare le attività, estrarre informazioni e creare contenuti multimediali quasi indistinguibili dalla realtà. Ma come ogni tecnologia, l’intelligenza artificiale non è sempre sfruttata per sempre. In particolare, i cyberattaccanti possono utilizzare l’intelligenza artificiale per potenziare i propri attacchi ed espandere le proprie campagne.
Un recente sondaggio pubblicato da ricercatori di Microsoft, Purdue e Ben-Gurion University, tra gli altri, esplora la minaccia di questa ” IA offensiva ” sulle organizzazioni. Identifica diverse funzionalità che gli avversari possono utilizzare per rafforzare i propri attacchi e classifica ciascuno in base alla gravità, fornendo approfondimenti sugli avversari.
Il sondaggio, che ha esaminato sia la ricerca esistente sull’AI offensiva sia le risposte di organizzazioni tra cui IBM, Airbus, Airbus, IBM e Huawei, identifica tre motivazioni principali per un avversario nell’usare l’AI: copertura, velocità e successo. L’intelligenza artificiale consente agli aggressori di “avvelenare” i modelli di apprendimento automatico corrompendo i loro dati di addestramento, oltre a rubare le credenziali tramite l’ analisi del canale laterale . E può essere utilizzato per armare i metodi di intelligenza artificiale per il rilevamento delle vulnerabilità, i test di penetrazione e il rilevamento delle perdite di credenziali.
Le principali minacce informatiche dell’IA AI
Le organizzazioni hanno detto ai ricercatori che considerano lo sfruttamento dello sviluppo, l’ingegneria sociale e la raccolta di informazioni come le tecnologie di intelligenza artificiale offensive più minacciose. Sono particolarmente preoccupati per l’intelligenza artificiale utilizzata per la rappresentazione, come i deepfake per perpetrare attacchi di phishing e reverse engineering che potrebbero consentire a un utente malintenzionato di “rubare” algoritmi proprietari. Inoltre, temono che, a causa della capacità dell’IA di automatizzare i processi, gli avversari possano passare dall’avere poche campagne segrete lente ad avere molte campagne frenetiche per sopraffare i difensori e aumentare le loro possibilità di successo.
Ma i timori non stanno stimolando gli investimenti nelle difese. Secondo un sondaggio tra le aziende condotto dalla startup di autenticazione dei dati Attestiv, meno del 30% ha dichiarato di aver adottato misure per mitigare le ricadute di un attacco deepfake. È probabile che la lotta contro i deepfake rimanga impegnativa poiché le tecniche di generazione continuano a migliorare, nonostante innovazioni come Deepfake Detection Challenge e Microsoft Video Authenticator .
In effetti, i ricercatori prevedono che le campagne di phishing diventeranno più dilaganti man mano che i bot acquisiranno la capacità di effettuare chiamate di phishing deepfake convincenti. Dicono anche che è probabile che ci sia un aumento dell’IA offensiva nelle aree di raccolta dati, sviluppo di modelli, formazione e valutazione nei prossimi anni.
Per scongiurare le minacce, i ricercatori raccomandano che le organizzazioni si concentrino sullo sviluppo di strumenti di post-elaborazione in grado di proteggere il software dall’analisi dopo lo sviluppo. Suggeriscono inoltre l’integrazione di test di sicurezza, protezione e monitoraggio dei modelli con MLOps in modo che le organizzazioni possano mantenere più facilmente i sistemi sicuri. MLOps, un composto di “apprendimento automatico” e “operazioni di tecnologia dell’informazione”, è una disciplina più recente che coinvolge la collaborazione tra scienziati dei dati e professionisti IT con l’obiettivo di produrre algoritmi di apprendimento automatico
“Con il rapido ritmo di sviluppo e l’accessibilità aperta dell’IA, ci aspettiamo di vedere un notevole cambiamento nelle strategie di attacco alle organizzazioni”, hanno scritto i ricercatori. “L’intelligenza artificiale consentirà agli avversari di prendere di mira più organizzazioni in parallelo e più frequentemente. Di conseguenza, invece di essere nascosti, gli avversari possono scegliere di sopraffare le squadre di risposta del difensore con migliaia di tentativi per la possibilità di un successo … [In effetti, mentre] gli avversari iniziano a utilizzare i robot abilitati all’intelligenza artificiale, i difensori saranno costretti ad automatizzare i loro difese anche con i bot. Mantenere gli esseri umani aggiornati per controllare e determinare strategie di alto livello è un requisito pratico ed etico. Tuttavia, sono necessarie ulteriori discussioni e ricerche per formare politiche sicure e piacevoli”.