Le preoccupazioni che l’intelligenza artificiale generativa (AI) come “ChatGPT” possa essere oggetto di abusi e minacciare la sicurezza sono diventate realtà.
Il Wall Street Journal ha riferitoche un team della società di sicurezza informatica Clerotti è riuscito a interrompere il sistema con l’aiuto di ChatGPT in una competizione hackathon e ha vinto il campionato.
Secondo questo, il ricercatore Noam Moses Clerotti ha partecipato all’hackathon (Pwn2Own) tenutosi a Miami il mese scorso con il suo collega ed è riuscito a scavare nelle debolezze del sistema scrivendo un codice bug con ChatGPT. Il team è riuscito in tutti e 10 i tentativi e ha vinto un premio di 123.000 dollari (circa 160 milioni di won).
Le aziende che servono OpenAI o altre IA generative dispongono di controlli e filtri per prevenire gli abusi. Tuttavia, gli esperti sottolineano che gli hacker possono ingannare i chatbot in modo indiretto piuttosto che dirigere la creazione di codice dannoso.
Il ricercatore Moses ha anche affermato: “Nessun bug è riuscito a superare il sistema, ma una serie di bug è stata manipolata e collegata per renderlo possibile”.
A questo proposito, alcuni esperti hanno affermato che la funzione di ChatGPT è esagerata. Dustin Childs, responsabile della sicurezza di Trend Micro, ha dichiarato: “ChatGPT è imprevedibile e soggetto a errori, quindi non può essere un’arma affidabile. Ci vorranno anni prima che l’intelligenza artificiale trovi le vulnerabilità da sola”.
D’altra parte, Christopher White, professore alla Virginia Commonwealth University, ha dichiarato: “Alcuni malintenzionati cercheranno di aggirare il perimetro di sicurezza informatica di un chatbot. Sceglierò”, ha predetto.
Inoltre, il co-fondatore di OpenAI Greg Brockman ha avvertito in un recente evento che ChatGPT può fare bene due cose: diffondere disinformazione e attacchi informatici.
Tuttavia, Dark Reading, un media professionale, ha sottolineato che “non ha menzionato ciò che OpenAI sta cercando di fare per mitigare le minacce alla sicurezza informatica dei chatbot”. Quindi, per il momento, la difesa dai chatbot sembra spettare solo alle società di sicurezza informatica.