L’Emergere delle Minacce IA nei Cyberattacchi

L’idea che i modelli di linguaggio su larga scala (LLM), come ChatGPT, possano essere utilizzati per perfezionare attacchi di spearphishing contro i membri del Parlamento britannico sembra una trama da film di spionaggio. Tuttavia, questo scenario è stato simulato in uno studio dell’Università di Oxford da Julian Hazell, segnando un punto di svolta nelle minacce informatiche: l’era degli LLM armati è ormai una realtà.

LLM come Strumento di Spearphishing

Hazell ha dimostrato che gli LLM possono creare email di spearphishing altamente personalizzate e convincenti, con un costo irrisorio per email. Questa scoperta, pubblicata su arXiv nel maggio 2023 e citata in oltre 23 altri studi nei sei mesi successivi, indica che la comunità di ricerca sta prendendo seriamente in considerazione questa nuova forma di minaccia informatica.

LLM nelle Mani Sbagliate

Gli LLM possono essere manipolati da criminali informatici, gruppi APT (Advanced Persistent Threat) e team di attacco statali per guidare agende economiche e sociali. La recente creazione di FraudGPT, in seguito all’emergere di ChatGPT, dimostra le potenziali letalità di questi modelli. Studi recenti hanno rivelato l’uso crescente di GPT-4, Llama 2 e altri LLM come armi informatiche.

La Necessità di Maggiore Sicurezza IA

Il recente focus sulla leadership di OpenAI sottolinea l’importanza di promuovere una maggiore sicurezza del modello in ogni fase del ciclo di vita dello sviluppo del sistema (SDLC). Il supporto di Meta alla nuova era della sicurezza nell’intelligenza artificiale generativa con Purple Llama rappresenta il tipo di collaborazione settoriale necessaria per proteggere gli LLM durante lo sviluppo e l’uso.

Rischio di LLM Armati

Gli LLM rappresentano un’arma a doppio taglio tra le tecnologie emergenti, con il potenziale di diventare una delle armi informatiche più pericolose. La ricerca “BadLlama” dell’Indian Institute of Information Technology, Lucknow, e Palisade Research ha rivelato che i protocolli di sicurezza possono essere aggirati facilmente, rendendo gli LLM vulnerabili all’uso improprio.

La Preoccupazione dei Professionisti della Sicurezza

Jerich Beason, CISO presso WM Environmental Services, evidenzia l’importanza della sicurezza nell’uso dell’intelligenza artificiale generativa. Nel suo corso LinkedIn Learning, sottolinea i rischi di violazioni della conformità, controversie legali e impatti negativi sulla reputazione del marchio e sulla fiducia dei clienti se trascurati.

Utilizzo Dannoso degli LLM

Gli LLM sono diventati uno strumento prediletto per gli aggressori informatici per scopi nefasti come jailbreak, reverse engineering, phishing, ingegneria sociale, disinformazione e persino sviluppo di armi biologiche. Il framework ReNeLLM ha mostrato come gli LLM possano essere utilizzati per generare richieste di jailbreak, esponendo le carenze delle attuali misure di difesa.

Contrastare la Minaccia dei LLM Armati

Per contrastare le minacce degli LLM armati, è essenziale definire strategie di sicurezza avanzate già nelle prime fasi dello SDLC. Inoltre, è cruciale il monitoraggio e il filtraggio dinamici per prevenire la fuga di dati riservati attraverso gli LLM. Infine, la standardizzazione collaborativa nello sviluppo degli LLM, come dimostrato dall’iniziativa Purple Llama di Meta, è fondamentale per unificare le misure di sicurezza a livello di settore.

 

 
 

Di ihal