Negli ultimi tempi, gli LLM (Large Language Model) sono diventati molto popolari e ciò ha sollevato preoccupazioni riguardo alla loro capacità di generare grandi quantità di contenuti scritti rapidamente e in modo semplice. Oggi, queste preoccupazioni hanno trovato conferma, poiché la comunità degli hacker black hat ha finalmente sfruttato le capacità degli LLM per scopi dannosi.
Sono state riportate segnalazioni secondo le quali gli hacker hanno rilasciato uno strumento di hacking basato su GPT-J chiamato WormGPT. Questo strumento sfrutta il già pervasivo vettore di attacco noto come compromissione della posta elettronica aziendale (BEC), che è considerato una delle principali minacce informatiche a livello globale.
Esaminare gli effetti di WormGPT mette in luce l’urgente necessità di una formazione sulla sicurezza informatica basata sull’IA. Gli hacker stanno sfruttando una tecnologia sempre più avanzata grazie all’intelligenza artificiale, il che pone sulle aziende l’onere di informare il proprio personale sui potenziali pericoli legati all’utilizzo dell’IA.
Il BEC è uno dei vettori di attacco più utilizzati dagli hacker per diffondere payload dannosi. In questo metodo, gli hacker si fanno passare per una parte coinvolta negli affari di un’azienda al fine di perpetrare una truffa. Sebbene le e-mail di questo tipo vengano generalmente contrassegnate come spam o sospette dai fornitori di posta elettronica, WormGPT offre ai truffatori un nuovo insieme di strumenti. Creando un nuovo modello addestrato su una vasta gamma di fonti di dati relative al malware, incluso il GPT-J open source, gli aggressori possono creare e-mail fasulle convincenti per l’atto di impersonificazione.
Secondo un post su un forum frequentato dagli hacker, WormGPT non ha le limitazioni di ChatGPT. Può generare testo per una varietà di applicazioni black hat, termine che si riferisce ad attività informatiche illegali. Inoltre, il modello può essere eseguito localmente, senza lasciare tracce su server esterni come farebbe attraverso un’API. Rimuovendo i vincoli di sicurezza dal modello, l’output generato non è regolato da alcun metodo di allineamento, offrendo un output non censurato pronto all’uso per attività illegali.
Il problema principale con un’applicazione come WormGPT è il fatto che offre agli aggressori la possibilità di creare testi in lingue diverse dall’inglese. Inoltre, queste e-mail hanno maggiori probabilità di eludere i filtri antispam poiché possono essere personalizzate in base alle esigenze degli hacker.
WormGPT abbassa notevolmente la barriera all’ingresso per gli hacker, poiché è altrettanto facile da usare di ChatGPT senza le protezioni necessarie. Inoltre, le e-mail generate con questo modello sembrano provenire da strumenti professionali, aumentando potenzialmente l’efficacia di un attacco.
Per quegli hacker che non desiderano pagare per WormGPT, il forum menzionato sopra offre anche versioni “jailbreak” di ChatGPT per aiutare gli utenti a ottenere output dannosi dal bot consumer. In passato, AIM ha affrontato ampiamente i problemi di sicurezza derivanti dai jailbreak, ma i modelli addestrati su misura rappresentano un nuovo livello di attacchi basati sull’intelligenza artificiale.
Come accennato in precedenza, il BEC rappresenta una delle principali minacce informatiche. Solo nel 2022, l’FBI ha ricevuto oltre 21.000 denunce riguardanti il BEC, che hanno portato a una perdita totale di circa 2,7 miliardi di dollari. Inoltre, il BEC è stata la principale minaccia informatica per le aziende per il settimo anno consecutivo nel 2021. Le aziende devono anche affrontare la perdita di informazioni sensibili attraverso il BEC, il che aumenta ulteriormente la possibilità di attacchi.
WormGPT non è l’unico modo in cui l’IA generativa sta causando problemi alle aziende. Gli LLM possono essere utilizzati per creare automaticamente malware, eseguire attacchi di ingegneria sociale, individuare vulnerabilità nel codice del software e persino aiutare a decifrare password. L’IA generativa rappresenta quindi una minaccia per le aziende, specialmente per quanto riguarda la fuga di dati.
Anche l’adozione dell’IA generativa da parte delle aziende è stata lenta a causa della mancanza di infrastrutture di sicurezza adeguate per questa potente tecnologia. Nonostante i fornitori di servizi cloud si siano lanciati nel fiorente mercato dell’IA, le aziende hanno ancora bisogno di offerte LLM solide e orientate alla sicurezza. Educando il personale sui pericoli dell’IA generativa, le aziende possono proteggersi dalla fuga di dati. È inoltre fondamentale evidenziare i pericoli degli attacchi di hacking basati sull’intelligenza artificiale, in modo che i dipendenti possano individuare potenziali minacce informatiche.
Le aziende sono in ritardo nella preparazione alla sicurezza informatica, come evidenziato da questo sondaggio che ha rilevato che solo il 15% delle organizzazioni ha un livello maturo di preparazione ai rischi per la sicurezza. Con l’ascesa dell’IA generativa, le aziende devono investire risorse per mantenere la propria forza lavoro aggiornata con le ultime minacce della sicurezza informatica basata sull’IA.