Google ha annunciato una significativa conquista nel campo della sicurezza informatica: il suo sistema di rilevamento delle vulnerabilità basato sull’intelligenza artificiale, denominato Big Sleep, ha identificato autonomamente 20 difetti di sicurezza in ampiamente utilizzati software open source. Questa innovazione segna un passo importante verso l’automazione nella ricerca di vulnerabilità, combinando l’efficienza dell’IA con l’esperienza umana per garantire risultati affidabili.
Big Sleep è un sistema sviluppato congiuntamente da Google DeepMind e dal team di esperti di sicurezza Project Zero. Utilizzando il modello linguistico di grandi dimensioni Gemini, Big Sleep è in grado di analizzare autonomamente il codice sorgente di applicazioni e rilevare potenziali vulnerabilità senza intervento umano. Una volta individuato un difetto, un esperto umano verifica e convalida il risultato prima di segnalarlo ai responsabili del software interessato.
Le 20 vulnerabilità identificate da Big Sleep riguardano software open source ampiamente utilizzati, tra cui:
- FFmpeg: una libreria multimediale per la gestione di video e audio.
- ImageMagick: un potente strumento di editing e conversione di immagini.
- QuickJS: un motore JavaScript compatto e veloce.
- Redis: un database in-memory utilizzato per la gestione di dati strutturati.
Alcune vulnerabilità sono state classificate come di alta priorità, mentre altre presentano rischi di gravità media o bassa. Tuttavia, i dettagli tecnici specifici non sono stati divulgati per motivi di sicurezza, in attesa che vengano implementate le necessarie correzioni.
Il funzionamento di Big Sleep si basa sull’analisi automatica del codice sorgente. Il sistema simula il comportamento di un attaccante, cercando pattern e anomalie nel codice che potrebbero indicare vulnerabilità. Una volta individuato un potenziale difetto, Big Sleep lo riproduce autonomamente per verificarne l’esistenza. Successivamente, un esperto umano esamina il risultato per confermare la validità della vulnerabilità e determinare la sua gravità. Questo approccio ibrido consente di combinare la velocità dell’IA con la precisione dell’intervento umano.
La scoperta di queste vulnerabilità evidenzia l’importanza di garantire la sicurezza del software open source, che è alla base di molte applicazioni e infrastrutture digitali. L’uso di strumenti basati sull’IA come Big Sleep può accelerare il processo di individuazione dei difetti, riducendo il rischio di sfruttamento da parte di attaccanti. Tuttavia, è fondamentale mantenere un equilibrio tra automazione e supervisione umana per evitare falsi positivi e garantire l’affidabilità dei risultati.
Nonostante i successi ottenuti, l’uso dell’IA nella sicurezza informatica presenta alcune sfide. Alcuni sviluppatori hanno segnalato la presenza di “allucinazioni” nei report generati dall’IA, ossia segnalazioni di vulnerabilità inesistenti che possono causare confusione e spreco di risorse. Per affrontare questo problema, è essenziale migliorare la formazione dei modelli IA e affinare i processi di verifica umana. Inoltre, la collaborazione tra aziende, ricercatori e comunità open source sarà cruciale per sviluppare soluzioni di sicurezza sempre più efficaci e condivise.