Gli attacchi informatici paralizzanti dell’IA sono inevitabili: 4 modi in cui le aziende possono prepararsi
entusiasti di riportare Transform 2022 di persona il 19 luglio e virtualmente dal 20 al 28 luglio. Unisciti ai leader dell’IA e dei dati per discussioni approfondite ed entusiasmanti opportunità di networking. Registrati oggi !Quando Eric Horvitz, direttore scientifico di Microsoft, ha testimoniato il 3 maggio davanti alla sottocommissione sulla sicurezza informatica della commissione per i servizi armati del Senato degli Stati Uniti, ha sottolineato che le organizzazioni sono sicure di dover affrontare nuove sfide man mano che gli attacchi alla sicurezza informatica aumentano in termini di sofisticatezza, anche attraverso l’uso dell’intelligenza artificiale. 

Mentre l’IA sta migliorando la capacità di rilevare le minacce alla sicurezza informatica, ha spiegato, anche gli attori delle minacce stanno alzando la posta.


In che modo l’IA può aiutare a proteggere i dispositivi della tua organizzazione in esecuzione sull’edge durante tutto il loro ciclo di vita; Ascolta diverse prospettive da Goldman Sachs e AMD 1
“Anche se ad oggi ci sono scarse informazioni sull’uso attivo dell’IA negli attacchi informatici , è ampiamente accettato che le tecnologie di intelligenza artificiale possano essere utilizzate per scalare gli attacchi informatici tramite varie forme di indagine e automazione … denominate IA offensiva”, ha affermato. 

Tuttavia, non sono solo i militari a dover stare al passo con gli attori delle minacce che utilizzano l’IA per aumentare i loro attacchi ed eludere il rilevamento. Mentre le aziende combattono un numero crescente di gravi violazioni della sicurezza, devono prepararsi a crimini informatici sempre più sofisticati basati sull’intelligenza artificiale , affermano gli esperti. 

Gli attaccanti vogliono fare un grande balzo in avanti con l’IA 
“Non abbiamo ancora visto il ‘big bang’, in cui l’intelligenza artificiale ‘Terminator’ entra in gioco e devasta ovunque, ma gli aggressori stanno preparando quel campo di battaglia”, ha detto a VentureBeat Max Heinemeyer, vicepresidente dell’innovazione informatica presso la società di sicurezza informatica AI Darktrace . Quello che stiamo attualmente vedendo, ha aggiunto, è “un grande motore nella sicurezza informatica, quando gli aggressori vogliono fare un grande balzo in avanti, con un attacco che cambia mentalità che sarà estremamente dirompente”. 

ANNUNCIO

Ad esempio, ci sono stati attacchi non basati sull’intelligenza artificiale, come l’attacco ransomware WannaCry del 2017, che ha utilizzato quelle che erano considerate nuove armi informatiche, ha spiegato, mentre oggi c’è un malware utilizzato nella guerra Ucraina-Russia che è stato visto raramente prima. “Questo tipo di attacco che cambia la mentalità è dove ci aspetteremmo di vedere l’IA”, ha detto. 

Finora, l’uso dell’IA nella guerra Ucraina-Russia rimane limitato all’uso russo di deepfake e all’uso da parte dell’Ucraina del controverso software di riconoscimento facciale di Clearview AI , almeno pubblicamente. Ma i professionisti della sicurezza si stanno preparando a combattere: un sondaggio Darktrace dell’anno scorso ha rilevato che un numero crescente di leader della sicurezza IT è preoccupato per il potenziale utilizzo dell’intelligenza artificiale da parte dei criminali informatici. Il 60% degli intervistati ha affermato che le risposte umane stanno cadendo per stare al passo con il ritmo degli attacchi informatici, mentre quasi tutti (96%) hanno iniziato a proteggere le proprie aziende dalle minacce basate sull’intelligenza artificiale, per lo più legate a e-mail, spear phishing avanzato e minacce di impersonificazione. 

“Ci sono state pochissime ricerche effettive di rilevamento di machine learning o attacchi di intelligenza artificiale nel mondo reale, ma i cattivi stanno già utilizzando l’intelligenza artificiale”, ha affermato Corey Nachreiner, CSO di WatchGuard, che fornisce prodotti di sicurezza di livello aziendale ai clienti di fascia media . 

Gli attori delle minacce stanno già utilizzando l’apprendimento automatico per assistere in più attacchi di ingegneria sociale. Se ottengono grandi, grandi set di dati con un sacco di password, possono imparare cose su quelle password per migliorare l’hacking delle password.

Gli algoritmi di apprendimento automatico guideranno anche un volume maggiore di attacchi di spear-phishing o e-mail fraudolente altamente mirate e non generiche rispetto al passato, ha affermato. “Purtroppo, è più difficile addestrare gli utenti a non fare clic su messaggi di spear-phishing”, ha affermato. 

Di cosa devono davvero preoccuparsi le aziende
Secondo Seth Siegel, leader nordamericano della consulenza sull’intelligenza artificiale presso Infosys, i professionisti della sicurezza potrebbero non pensare agli attori delle minacce che utilizzano l’IA in modo esplicito, ma stanno vedendo più attacchi più veloci e possono percepire un maggiore utilizzo dell’IA all’orizzonte. 

ANNUNCIO

“Penso che vedano che sta diventando veloce e furioso là fuori”, ha detto a VentureBeat. “Il panorama delle minacce è davvero aggressivo rispetto allo scorso anno, rispetto a tre anni fa, e sta peggiorando”. 

Tuttavia, ha ammonito, le organizzazioni dovrebbero preoccuparsi di molto di più degli attacchi di spear phishing . “La domanda dovrebbe essere davvero: come possono le aziende affrontare uno dei maggiori rischi dell’IA, ovvero l’introduzione di dati errati nei modelli di machine learning?” Egli ha detto.

Questi sforzi non proverranno da singoli aggressori , ma da sofisticati hacker di stato-nazione e bande criminali.

“È qui che sta il problema: usano la tecnologia più disponibile, la tecnologia più veloce, la tecnologia all’avanguardia perché devono essere in grado non solo di superare le infrazioni, ma sono dipartimenti schiaccianti che francamente non sono attrezzati per gestire questo livello di cattiva recitazione”, ha detto. “Fondamentalmente, non puoi portare uno strumento umano in un combattimento AI.” 

4 modi per prepararsi al futuro degli attacchi informatici dell’IA
Gli esperti affermano che i professionisti della sicurezza dovrebbero adottare diversi passaggi essenziali per prepararsi al futuro degli attacchi informatici dell’IA: 

Fornire formazione continua di sensibilizzazione alla sicurezza.
Il problema con lo spear phishing, ha affermato Nachreiner, è che poiché le e-mail sono personalizzate in modo da sembrare veri e propri messaggi aziendali, sono molto più difficili da bloccare. “Devi avere una formazione sulla consapevolezza della sicurezza, in modo che gli utenti sappiano di aspettarsi ed essere scettici nei confronti di queste e-mail, anche se sembrano provenire in un contesto aziendale”, ha affermato. 

Usa strumenti basati sull’intelligenza artificiale.
L’organizzazione infosec dovrebbe abbracciare l’IA come strategia di sicurezza fondamentale, ha affermato Heinemeyer. “Non dovrebbero aspettare di usare l’IA o considerarla solo una ciliegina sulla torta: dovrebbero anticipare e implementare l’IA da soli”, ha spiegato. “Non credo che si rendano conto di quanto sia necessario al momento, ma una volta che gli attori delle minacce iniziano a utilizzare un’automazione più furiosa e forse ci sono attacchi più distruttivi lanciati contro l’Occidente, allora vuoi davvero avere l’IA”. 

Pensa oltre i singoli cattivi attori.
Le aziende devono rifocalizzare la loro prospettiva lontano dal singolo attore cattivo, ha affermato Siegel. “Dovrebbero pensare di più all’hacking a livello di stato-nazione, all’hacking delle bande criminali, ed essere in grado di assumere posizioni difensive e anche capire che è solo qualcosa con cui ora devono affrontare ogni giorno”, 

Avere una strategia proattiva.
Le organizzazioni devono anche assicurarsi di essere al top delle loro posizioni di sicurezza, ha affermato Siegel. “Quando le patch vengono distribuite, devi trattarle con un livello di criticità che meritano”, ha spiegato, “e devi controllare i tuoi dati e modelli per assicurarti di non introdurre informazioni dannose nei modelli”.

Siegel ha aggiunto che la sua organizzazione incorpora professionisti della sicurezza informatica nei team di scienza dei dati e forma anche scienziati dei dati sulle tecniche di sicurezza informatica. 

Il futuro dell’IA offensiva
Secondo Nachreiner, l’apprendimento automatico più “contrario” sta arrivando.

 
“Questo entra nel modo in cui utilizziamo l’apprendimento automatico per difenderci: le persone lo useranno contro di noi”, ha affermato. 

Ad esempio, uno dei modi in cui le organizzazioni utilizzano oggi l’intelligenza artificiale e l’apprendimento automatico è quello di rilevare meglio il malware in modo proattivo, poiché ora il malware cambia rapidamente e il rilevamento del malware basato sulle firme non cattura più il malware regolarmente. Tuttavia, in futuro, quei modelli ML saranno vulnerabili agli attacchi degli attori delle minacce. 

Il panorama delle minacce guidate dall’intelligenza artificiale continuerà a peggiorare, ha affermato Heinemeyer, con crescenti tensioni geopolitiche che contribuiranno alla tendenza. Ha citato un recente studio della Georgetown University che ha studiato la Cina e il modo in cui intrecciano le loro università di ricerca sull’intelligenza artificiale e l’hacking sponsorizzato dagli stati nazionali. “Dice molto su quanto strettamente i cinesi, come altri governi, lavorino con accademici, università e ricerca sull’intelligenza artificiale per sfruttarlo per potenziali operazioni informatiche per l’hacking”. 

“Mentre penso a questo studio e ad altre cose che accadranno, penso che la mia visione delle minacce tra un anno sarà più cupa di oggi”, ha ammesso. Tuttavia, ha sottolineato che anche le prospettive difensive miglioreranno perché più organizzazioni stanno adottando l’IA. “Saremo ancora bloccati in questo gioco gatto-topo”, ha detto.  

Di ihal