OpenAI ha lanciato la sua nuova versione di software di machine learning, GPT-4, che ha attirato molta attenzione questa settimana. La società ha annunciato che il nuovo software avrebbe avuto delle regole per proteggerlo dall’uso da parte di criminali informatici. Tuttavia, in pochi giorni, i ricercatori sono stati in grado di utilizzarlo per creare malware e email di phishing, proprio come avevano fatto con la versione precedente, ChatGPT. Anche se hanno potuto utilizzare il software per riparare i buchi nelle difese informatiche, questa scoperta ha sollevato preoccupazioni sulla sicurezza dell’IA.
I ricercatori di Check Point, una società di sicurezza informatica, hanno mostrato come abbiano aggirato i blocchi di OpenAI semplicemente rimuovendo la parola “malware” in una richiesta, consentendo così a GPT-4 di creare software dannoso che raccoglieva file PDF e li inviava a un server remoto. Il software ha persino fornito consigli su come farlo funzionare su un PC Windows 10 e come renderlo più piccolo per evitare la rilevazione.
Per creare email di phishing, i ricercatori hanno utilizzato due approcci. In uno, hanno utilizzato GPT-3.5, che non bloccava le richieste di creazione di messaggi dannosi, per scrivere un’e-mail di phishing impersonando una banca legittima. Successivamente, hanno chiesto a GPT-4 di migliorare il linguaggio della mail. Nel secondo approccio, hanno chiesto a GPT-4 di fornire un modello per una falsa email di phishing per una campagna di sensibilizzazione per un’azienda.
I ricercatori di Check Point hanno sottolineato che GPT-4 può essere utilizzato sia da attori malintenzionati che da attori buoni. I malintenzionati possono utilizzare la tecnologia per eseguire rapidamente il crimine informatico, mentre gli attori buoni possono utilizzarlo per creare codice utile alla società. Tuttavia, sembra che le barriere poste da OpenAI per impedire a GPT-4 di generare phishing o codice dannoso siano inferiori rispetto alle versioni precedenti. Ciò potrebbe essere dovuto al fatto che attualmente solo gli utenti premium hanno accesso.
OpenAI ha ammesso che GPT-4 potrebbe ridurre il costo di alcune fasi di un attacco informatico, ad esempio attraverso l’ingegneria sociale o migliorando gli strumenti di sicurezza esistenti. Tuttavia, la stessa società ha anche ammesso che lo strumento ha “limitazioni significative per le operazioni di sicurezza informatica”. La società ha addestrato modelli per rifiutare richieste di sicurezza informatica dannose e ha ridimensionato i suoi sistemi di sicurezza interni, ma la facilità con cui i ricercatori di Check Point hanno aggirato alcune di queste mitigazioni solleva preoccupazioni sulla sicurezza dell’IA.
Nonostante ciò, gli esperti di sicurezza informatica affermano che nonostante sia facile giocare con i modelli di OpenAI, un buon hacker saprà già come fare gran parte di ciò che GPT-4 può fare senza alcun bisogno di supporto artificialmente intelligente. Inoltre, i moderni sistemi di rilevamento dovrebbero anche essere in grado di rilevare i tipi di malware che ChatGPT aiuta a creare, poiché il software si basa su esempi precedenti visti su Internet.
Tuttavia, Daniel Cuthbert, un ricercatore di sicurezza informatica e membro del comitato di revisione per la conferenza sull’hacking di Black Hat, è molto entusiasta di ciò che GPT-4 può fare per la difesa. Dopo averlo utilizzato per rilevare bug nel software, ha anche utilizzato il software per offrire correzioni rapide con frammenti di codice effettivi che ha potuto copiare e incollare nel suo programma, risolvendolo in pochi secondi. Cuthbert ritiene che il futuro sia promettente per la tecnologia di intelligenza artificiale.
OpenAI ha ammesso che ci sono limitazioni nell’uso di GPT-4 per la sicurezza informatica, ma sta lavorando per migliorare la sicurezza del software e impedire il suo utilizzo improprio. La società ha affermato che il suo obiettivo è quello di rendere la tecnologia di intelligenza artificiale sicura e benefica per la società. Tuttavia, la scoperta dei ricercatori di Check Point solleva preoccupazioni sulla sicurezza delle future tecnologie di intelligenza artificiale e sottolinea l’importanza di sviluppare e utilizzare queste tecnologie in modo responsabile.