Nel contesto dell’evolversi di diverse strategie per sfruttare l’Intelligenza Artificiale Generativa (AI), è emerso un nuovo strumento di attacco informatico noto come “FraudGT”, che è accessibile persino ai neofiti nel campo. Questa novità ricorda il recente WormGPT, ma questa volta si distingue per essere un servizio a pagamento su base mensile.
Un articolo di VentureBeat ha reso noto che Netenrich, un’azienda specializzata in sicurezza informatica e analisi dati con sede in India, ha individuato “Scam GPT”, un’applicazione basata sull’Intelligenza Artificiale Generativa.
In pratica, Scam GPT è uno strumento che genera autonomamente codice dannoso, malware ed e-mail di phishing convincenti, offrendo quindi la possibilità di lanciare attacchi informatici avanzati, persino per coloro che sono alle prime armi. Questo servizio pubblicizza la capacità di individuare siti vulnerabili o suscettibili di frode con carte di pagamento e fornisce suggerimenti relativi a metodi di hacking e criminalità informatica. I piani di abbonamento vanno da $200 al mese fino a $1.700 all’anno.
Il gruppo autoproclamato “Canadian Kingpin 12 Group”, che sostiene di aver sviluppato questo strumento, ha creato un canale Telegram e ha condiviso un video di un caso reale in cui è stato impiegato Scam GPT, sostenendo di avere oltre 3.000 abbonati a luglio. Hanno affermato di essere un fornitore affidabile e affermato in diversi mercati del dark web.
Secondo quanto riportato da VentureBeat, l’uso di GPT fraudolenti potrebbe coinvolgere più attaccanti informatici rispetto a quanto fatto dalla Corea del Nord nei prossimi mesi. Secondo il New Station Times, sono stimati circa 6.800 hacker operanti in Corea del Nord.
Inoltre, è stato evidenziato che, benché possa essere complesso minacciare la sicurezza nazionale con l’uso di GPT fraudolenti, i danni potrebbero essere gravi nei confronti dei servizi pubblici, come l’istruzione e l’assistenza sanitaria.
John Bambenek, Chief Security Officer di Netenrich, ha affermato che “Il GPT fraudolento probabilmente si basa su un modello open source di Intelligenza Artificiale, disattivando le protezioni. Questo mostra ciò che può accadere”, ha sottolineato.
A tal proposito, lo scorso mese è stato segnalato l’emergere di “WormGPT”, un chatbot basato sull’AI che assiste i criminali informatici nella creazione e distribuzione di e-mail di phishing.
Secondo la società di sicurezza informatica Slashnext, WormGPT è stato sviluppato sulla base del modello “GPTJ” rilasciato da Eleuther AI, un gruppo open source senza scopo di lucro. Questo strumento è stato rilasciato all’inizio di luglio ed è stato impiegato per distribuire migliaia di e-mail di phishing. È stato confermato che WormGPT è stato creato rimuovendo le restrizioni presenti nel modello di Intelligenza Artificiale esistente, e ne è stata promossa attivamente l’utilizzo all’interno di alcune comunità.
John Bambenek, Chief Security Officer di Netenrich, ha ribadito che “Il GPT fraudolento probabilmente si basa su un modello open source di Intelligenza Artificiale, disattivando le protezioni. Questo dimostra quali possono essere le conseguenze”.