Recentemente, il ricercatore di sicurezza di Netenrich, Rakesh Krishnan, ha pubblicato un blog che riporta la scoperta di un modello chiamato FraudGPT.
FraudGPT è stato rilevato nei forum darknet e sui canali Telegram a partire dal 22 luglio 2023 ed è disponibile tramite abbonamento al costo di $ 200 al mese, $ 1.000 per sei mesi o $ 1.700 per un anno.
L’autore del blog non ha identificato l’LLM (Large Language Model) su cui si basa FraudGPT, ma ha riferito che il modello ha già accumulato oltre 3.000 vendite e recensioni confermate. L’individuo responsabile di questo strumento si fa chiamare CanadianKingpin e sostiene che FraudGPT possa essere utilizzato per compiere azioni dannose come scrivere codice malevolo, creare malware invisibile, individuare vulnerabilità e falle di sicurezza.
L’accessibilità crescente ai modelli di intelligenza artificiale generativa ha permesso a individui con limitate competenze tecniche di svolgere compiti al di là delle loro capacità, migliorando l’efficienza e riducendo i costi. Tuttavia, l’uso malintenzionato di questi strumenti ha portato alla nascita di nuove minacce, come il “phishing come servizio”, che è ora ampiamente diffuso.
FraudGPT offre una serie di funzionalità per i criminali informatici, tra cui la generazione di codice malevolo per sfruttare vulnerabilità nei sistemi informatici, nelle applicazioni e nei siti web. Inoltre, il modello è in grado di creare malware indetectabile, sfuggendo alle tradizionali misure di sicurezza e rendendo difficile per i programmi antivirus rilevare e rimuovere le minacce.
FraudGPT ha anche la capacità di identificare i contenitori non verificati da Visa (Non-VBV), permettendo agli hacker di effettuare transazioni non autorizzate senza ulteriori controlli di sicurezza. Oltre a ciò, l’IA generativa può produrre pagine di phishing convincenti, che imitano siti web legittimi, aumentando così il tasso di successo degli attacchi di phishing.
Il modello è anche in grado di creare altri strumenti di hacking personalizzati, adattati per sfruttare specifiche vulnerabilità o raggiungere obiettivi particolari. Inoltre, può essere utilizzato per individuare gruppi di hacker nascosti, siti web sotterranei e mercati neri dove vengono scambiate informazioni rubate.
FraudGPT può essere impiegato per generare pagine e lettere di truffa, ingannando le persone in schemi fraudolenti. Può altresì aiutare gli hacker a individuare fughe di dati, vulnerabilità di sicurezza e punti deboli nell’infrastruttura di un obiettivo, facilitando quindi violazioni più semplici.
Inoltre, il modello può fornire contenuti per aiutare nell’apprendimento delle tecniche di codifica e hacking, fornendo risorse per migliorare le capacità dei criminali informatici. Infine, contribuisce a individuare siti “cardabili”, ovvero luoghi in cui dati di carte di credito rubate possono essere utilizzati per transazioni fraudolente.
Il precedente modello chiamato WormGPT, lanciato il 13 luglio 2023, è popolare tra i criminali informatici poiché è specializzato nella redazione di e-mail di Business Email Compromise (BEC), uno dei vettori di attacco più diffusi per diffondere payload dannosi.
Mentre l’adozione dell’intelligenza artificiale generativa da parte delle aziende è stata lenta a causa delle preoccupazioni sulla sicurezza, i fornitori di servizi cloud stanno cercando di soddisfare questa esigenza con un’offerta LLM sicura. Tuttavia, è essenziale educare la forza lavoro riguardo ai potenziali pericoli dell’IA generativa per proteggere da fuga di dati e altre minacce informatiche.
Gli attacchi informatici basati sull’intelligenza artificiale comportano rischi significativi, pertanto è fondamentale formare i dipendenti per identificare e rispondere a potenziali minacce informatiche. Tuttavia, molte aziende sono ancora indietro nella preparazione alla sicurezza informatica, con solo il 15% che si ritiene adeguatamente preparato per affrontare i rischi per la sicurezza.
Il rapido sviluppo dei modelli di intelligenza artificiale ha reso difficile per gli esperti di sicurezza identificare e contrastare automaticamente gli output generati dalle macchine, fornendo ai criminali informatici metodi più efficienti per attaccare e mirare le loro vittime. Ad esempio, ci sono stati casi in cui ingegneri di una divisione di Samsung hanno involontariamente divulgato informazioni sensibili utilizzando ChatGPT per correggere gli errori nel codice sorgente. Questo sottolinea la necessità di essere vigili e prendere precauzioni adeguate.
Nonostante gli sforzi per proteggersi dagli attacchi di phishing e informatici, l’efficacia degli strumenti di rilevamento per il testo generato dall’intelligenza artificiale è stata messa in discussione dopo l’interruzione del classificatore AI da parte di OpenAI. Documenti di ricerca hanno sollevato dubbi sulla possibilità di riconoscere in modo affidabile il testo generato dall’IA.
In conclusione, la diffusione di modelli di intelligenza artificiale generativa come FraudGPT e WormGPT sta presentando nuove sfide per la sicurezza informatica. È fondamentale per le aziende educare il personale riguardo alle minacce e adottare misure di sicurezza adeguate per proteggersi da tali attacchi sempre più sofisticati.