Il rilascio di ChatGPT-4 la scorsa settimana ha suscitato molte domande sulle implicazioni per la sicurezza dei dati. Da un lato, l’intelligenza artificiale generativa semplifica la creazione di malware e ransomware, ma dall’altro offre anche nuovi casi d’uso difensivi.
Ecco, alcune previsioni:
1) ChatGPT abbasserà la barriera all’ingresso per il crimine informatico: ChatGPT offre un’opportunità per chiunque abbia accesso a Internet di utilizzare tecnologie che tradizionalmente richiedevano individui altamente qualificati e finanziamenti sostanziali. Gli aggressori meno esperti ora hanno i mezzi per generare codice dannoso in massa.
2) Creare email di phishing convincenti diventerà più facile: l’IA generativa è uno strumento che può essere utilizzato per scopi buoni o nefasti. Attori delle minacce e ricercatori curiosi stanno già creando email di phishing più convincenti, generando codice e script dannosi di base per lanciare potenziali attacchi o anche solo interrogando informazioni migliori e più veloci.
3) Le organizzazioni avranno bisogno di professionisti della sicurezza esperti di intelligenza artificiale: con l’adozione di AI/ML su entrambi i lati della linea di demarcazione, le aziende dovranno assumere professionisti esperti in queste tecnologie per contrastare gli attacchi delle minacce.
4) Le imprese dovranno convalidare l’output dell’IA generativa: quando il personale di sicurezza non convalida l’output di ChatGPT, potrebbe causare più problemi di quanti ne risolva, perdendo vulnerabilità e dando alle aziende un falso senso di sicurezza.
5) L’IA generativa amplierà le minacce esistenti: l’IA generativa amplierà le minacce esistenti, in particolare il phishing, rendendo ancora più difficile per i team di sicurezza svolgere il proprio lavoro.
6) Le aziende definiranno le aspettative per l’uso di ChatGPT: le organizzazioni dovranno definire le aspettative sull’uso di ChatGPT e altre soluzioni simili in un contesto aziendale, sviluppando politiche di utilizzo accettabile, definendo un elenco di tutte le soluzioni approvate, i casi d’uso e i dati su cui il personale può fare affidamento e richiedendo che vengano stabiliti controlli per convalidare l’accuratezza delle risposte.
7) L’intelligenza artificiale aumenterà l’elemento umano: ChatGPT sarà una risorsa sia per avversari che per difensori, ma la condivisione di informazioni sulle minacce per la caccia alle minacce e l’aggiornamento
8) Nonostante l’introduzione di ChatGPT-4, le organizzazioni dovranno comunque affrontare le stesse vecchie minacce che hanno sempre minacciato la sicurezza informatica. ChatGPT-4 non è uno strumento autonomo e si basa sull’input dell’utente e sui dati su cui è stato addestrato. Inoltre, sebbene ChatGPT-4 possa generare malware e ransomware, la variazione delle sue capacità è ancora limitata, il che lo rende facile da rilevare con metodi di rilevamento basati sul comportamento. In definitiva, ChatGPT-4 può abbassare la barriera all’ingresso per i criminali informatici, ma non introdurrà metodi di attacco completamente nuovi per i gruppi già consolidati.