Con l’enorme clamore intorno all’intelligenza artificiale, gli attori malintenzionati stanno sfruttando la situazione per eseguire nuovi attacchi. Un recente rapporto ha evidenziato come gli hacker stiano utilizzando ChatGPT di OpenAI e Bard di Google per diffondere il malware-as-a-service Redline Stealer attraverso gruppi di Facebook, prendendo di mira utenti non esperti di tecnologia.
Il malware viene camuffato da download gratuiti dei modelli di intelligenza artificiale e una volta scaricato ed eseguito, è in grado di estrarre grandi quantità di informazioni personali e credenziali dalle vittime. Questo rappresenta un nuovo vettore di attacco, che si concentra sull’entusiasmo attorno all’IA, piuttosto che sull’utilizzo diretto degli LLM.
Mentre l’IA continua a ricevere un’enorme attenzione, è importante anche esplorare la sua utilità, la regolamentazione e il potenziale da sfruttare. Programmi di bug bounty come quello istituito da OpenAI incentivano la scoperta di bug ed exploit negli LLM, ma le autorità di regolamentazione e i governi dovrebbero anche prendere in considerazione l’educazione sui modelli di intelligenza artificiale nel curriculum scolastico e la creazione di consapevolezza attraverso risorse pubbliche per prevenire attacchi come Redline Stealer.
Inoltre, il rapporto di Veriti ha sottolineato che uno dei rischi più preoccupanti associati alle piattaforme di intelligenza artificiale generativa è la capacità di impacchettare l’intelligenza artificiale in un file, come ad esempio applicazioni mobili o open source, creando così l’opportunità perfetta per gli attori malintenzionati di ingannare i downloader ingenui.
Il malware Redline Stealer viene venduto come servizio su vari forum Darknet e gruppi di Telegram, con prezzi che variano da $150 al mese a $800 per un abbonamento a vita. Questa tendenza rappresenta un allontanamento dai metodi precedenti di sfruttare le capacità degli LLM per distribuire gli attacchi, poiché gli hacker si sono rivolti all’entusiasmo che circonda la tecnologia per eseguire attacchi.
Poiché l’IA è attualmente in uno dei punti più alti del suo ciclo di hype, è ragionevole presumere che questo tipo di attacchi aumenterà solo di frequenza. Tuttavia, l’attenzione normativa, l’investimento e la partecipazione nel settore possono rappresentare un deterrente per questi schemi.
In conclusione, l’IA è una tecnologia molto promettente, ma anche molto potente, che richiede un approccio responsabile alla sua utilizzazione e regolamentazione. La creazione di consapevolezza sui rischi associati all’IA, unita all’istituzione di programmi di bug bounty e all’inclusione dell’educazione sui modelli di intelligenza artificiale nel curriculum scolastico, possono essere utili per prevenire attacchi come Redline Stealer e garantire una sana evoluzione della tecnologia.