Le minacce informatiche interne rappresentano uno dei pericoli più gravi per le aziende, poiché mirano ai sistemi e alle risorse aziendali più cruciali. Con l’introduzione di nuovi chatbot basati sull’intelligenza artificiale, sia per uso interno che per l’interazione con i clienti, le aziende stanno esponendosi a nuovi rischi e potenziali attacchi.
Un recente studio intitolato “ArtPrompt: Attacchi di Jailbreak basati sull’arte ASCII contro LLM allineati” ha evidenziato la vulnerabilità di alcuni dei modelli di linguaggio più avanzati, come ChatGPT-3.5, GPT-4, Gemini, Claude e Llama2 di Meta di Open AI, a causa delle loro limitate capacità di riconoscere l’arte ASCII. I ricercatori hanno dimostrato che è possibile compromettere questi modelli utilizzando questa tecnica.
ArtPrompt è una strategia di attacco che sfrutta le carenze degli LLM nel riconoscimento dell’arte ASCII per eludere le misure di sicurezza. Gli autori notano che ArtPrompt richiede solo l’accesso “black-box” ai modelli di linguaggio e meno iterazioni per eseguire il jailbreak.
Le organizzazioni continuano ad adottare rapidamente chatbot basati sull’IA, sia interni che per l’interazione con i clienti, cercando di migliorare la produttività e ottenere vantaggi finanziari. Tuttavia, questa adozione comporta anche nuovi rischi di sicurezza che devono essere affrontati.
Il rapporto Cost of Insider Risks 2023 di Ponemon evidenzia l’importanza di implementare misure di sicurezza per proteggere i sistemi aziendali, compresi i più recenti chatbot IA. Il costo medio per rispondere a un attacco informatico è significativo, con la negligenza dei dipendenti identificata come causa principale degli incidenti di sicurezza interna.
Gli attacchi basati sull’arte ASCII rappresentano una sfida da contenere e richiedono un approccio di miglioramento continuo per ridurre i rischi. È importante adottare strategie di difesa multimodali che comprendano il filtraggio basato sull’espressione e il monitoraggio continuo.
Il settore della sicurezza informatica sta reagendo a queste minacce emergenti, offrendo soluzioni volte a proteggere i dati aziendali. È essenziale integrare e proteggere gli strumenti e le app di intelligenza artificiale aziendale per mitigare i rischi di attacco.
In sintesi, è chiaro che gli attacchi informatici basati sull’arte ASCII rappresentano una minaccia significativa per i chatbot IA e i modelli di linguaggio correlati. È necessario un approccio integrato e continuo per proteggere efficacemente le aziende da tali minacce.