Il rilascio di GPT-4 a marzo ha portato alla scoperta di un nuovo caso d’uso innovativo per ChatGPT nella sicurezza aziendale: l’inganno. Xavier Bellekens, CEO del fornitore di deception-as-a-service Lupovis, ha utilizzato ChatGPT per creare un honeypot di stampanti per attirare gli hacker a violare un sistema inesistente, dimostrando il ruolo che l’IA generativa può svolgere nell’inganno nella sicurezza informatica.

Bellekens ha creato una stampante esca utilizzando le istruzioni e il codice forniti da ChatGPT, che ha funzionato bene e ha attirato l’interesse degli hacker quasi immediatamente. Utilizzando uno strumento Lupovis chiamato Prowl, Bellekens ha analizzato le connessioni in entrata alla stampante, identificando sia i bot che gli esseri umani.

Questo esercizio dimostra il ruolo che gli strumenti di intelligenza artificiale generativa come ChatGPT possono svolgere nella sicurezza informatica dell’inganno, un approccio alle operazioni difensive in cui un team di sicurezza crea un’infrastruttura esca per fuorviare gli aggressori mentre acquisisce informazioni sulle tecniche di sfruttamento che utilizzano per accedere all’ambiente.

L’uso dell’IA generativa nella creazione di esche potrebbe semplificare il mercato della tecnologia dell’inganno, che è stato valutato a 1,9 miliardi di dollari nel 2020 e dovrebbe raggiungere i 4,2 miliardi di dollari entro il 2026.

Inoltre, l’inganno della sicurezza informatica sta subendo un cambiamento grazie allo sviluppo dell’intelligenza artificiale, portando a una strategia di difesa automatizzata del bersaglio mobile (AMTD), in cui un’organizzazione utilizza l’automazione per spostare o modificare il superficie di attacco in tempo reale. L’aggiunta di AI generativa come parte di questa strategia per generare esche su larga scala potrebbe essere un potente moltiplicatore di forza.

Gartner ha previsto che l’AMTD da solo probabilmente mitigherà la maggior parte degli exploit zero-day entro un decennio e ha affermato che entro il 2025, il 25% delle applicazioni cloud sfrutterà le funzionalità e i concetti dell’AMTD come parte degli approcci di prevenzione integrati.

In sintesi, ChatGPT e l’IA generativa possono svolgere un ruolo importante nella sicurezza informatica dell’inganno e nella difesa automatizzata del bersaglio mobile, aiutando le organizzazioni a rafforzare le proprie difese contro gli attori delle minacce e a passare all’offensiva.

L’uso di ChatGPT nella sicurezza informatica dell’inganno può essere esteso anche alla creazione di reti emulate, il che potrebbe semplificare il lavoro dei team di sicurezza nell’identificare e oscurare potenziali punti di ingresso per gli aggressori. L’automazione basata sull’IA generativa potrebbe essere un importante alleato nella lotta contro le minacce informatiche.

Inoltre, l’uso di ChatGPT nella creazione di honeypot potrebbe essere un potente strumento per acquisire informazioni sulle tecniche di sfruttamento utilizzate dagli aggressori, permettendo alle organizzazioni di rafforzare le proprie difese contro futuri attacchi.

Tuttavia, è importante notare che l’uso dell’IA generativa nella sicurezza informatica dell’inganno non è una soluzione completa. Gli aggressori possono ancora sviluppare tecniche avanzate per individuare e aggirare le esche, il che richiede una costante evoluzione delle tecniche di difesa.

Inoltre, è importante garantire che l’uso dell’IA generativa nella sicurezza informatica sia etico e trasparente. L’IA generativa può essere utilizzata per sviluppare anche codice dannoso, il che richiede una rigorosa valutazione dei rischi e delle implicazioni etiche.

In sintesi, l’uso di ChatGPT e dell’IA generativa nella sicurezza informatica dell’inganno rappresenta un importante passo avanti nella lotta contro le minacce informatiche. Tuttavia, è importante sottolineare che l’IA generativa è solo uno strumento e che la sicurezza informatica richiede un approccio olistico che preveda una costante evoluzione delle tecniche di difesa.

Di Fantasy