Immagine AI

Negli ultimi anni la sicurezza informatica è diventata uno dei campi più influenzati dall’evoluzione dell’intelligenza artificiale. L’emergere di modelli linguistici avanzati e di sistemi generativi capaci di analizzare grandi quantità di codice sorgente sta modificando profondamente i metodi tradizionali utilizzati per individuare vulnerabilità nei software complessi. In passato la scoperta di errori critici nel codice richiedeva lunghi processi manuali condotti da ricercatori di sicurezza esperti. Oggi, invece, modelli di intelligenza artificiale sempre più sofisticati sono in grado di analizzare milioni di righe di codice in tempi relativamente brevi, identificando potenziali vulnerabilità e suggerendo possibili correzioni.

Un esempio significativo di questa trasformazione emerge da una recente ricerca condotta da Anthropic in collaborazione con la Mozilla Foundation. Nel corso dello studio, un modello avanzato della famiglia Claude, denominato Cloud Opus 4.6, è stato utilizzato per analizzare il codice sorgente del browser web Firefox con l’obiettivo di individuare vulnerabilità di sicurezza. L’esperimento ha dimostrato come l’intelligenza artificiale possa contribuire in modo significativo alla scoperta di problemi critici nei sistemi software complessi, individuando in breve tempo numerosi bug rilevanti.

Durante l’analisi del codice di Firefox, il modello AI ha identificato un totale di 22 vulnerabilità, di cui 14 classificate come ad alta gravità. Questo numero rappresenta circa il 20% di tutte le vulnerabilità critiche di Firefox che sono state risolte nel corso del 2025. Molti dei problemi identificati erano già stati corretti nella versione Firefox 148 rilasciata a febbraio, mentre altri verranno risolti in aggiornamenti successivi del browser.

Il processo di analisi condotto dai ricercatori è iniziato con l’esplorazione del motore JavaScript del browser, una delle componenti più complesse e critiche dell’architettura software di Firefox. Successivamente l’analisi è stata estesa ad altre parti del sistema, includendo numerosi moduli del browser sviluppati in linguaggio C++. Nel complesso il modello ha analizzato circa 6.000 file di codice, producendo 112 segnalazioni di bug nel corso dello studio.

Uno degli aspetti più sorprendenti dell’esperimento riguarda la velocità con cui il modello è riuscito a individuare le prime vulnerabilità. Circa venti minuti dopo l’inizio dell’analisi, il sistema ha identificato una vulnerabilità di tipo use-after-free nel motore JavaScript del browser. Questo tipo di errore di gestione della memoria è considerato particolarmente pericoloso perché può consentire a un attaccante di manipolare il contenuto della memoria e di eseguire codice arbitrario sul sistema della vittima.

Le vulnerabilità use-after-free si verificano quando un programma continua a utilizzare un puntatore a un’area di memoria che è già stata liberata. Se un attaccante riesce a sovrascrivere quella regione di memoria con dati malevoli, può potenzialmente ottenere il controllo del flusso di esecuzione del programma. Questo tipo di bug è stato responsabile di numerosi attacchi informatici nel corso degli anni e rappresenta una delle categorie più importanti di vulnerabilità nella sicurezza del software.

Nel corso dello studio l’intelligenza artificiale non si è limitata a individuare vulnerabilità potenziali, ma ha generato segnalazioni strutturate di bug che sono state successivamente analizzate dai ricercatori umani. Molte di queste segnalazioni si sono rivelate vulnerabilità reali che richiedevano interventi correttivi nel codice. Questo risultato evidenzia come i modelli linguistici avanzati possano svolgere un ruolo importante nel processo di revisione del codice e nella ricerca proattiva di errori di sicurezza.

Nonostante questi risultati promettenti, lo studio ha evidenziato anche alcune limitazioni significative delle tecnologie attuali. I ricercatori hanno infatti testato se il modello fosse in grado non solo di individuare le vulnerabilità, ma anche di sviluppare codice di attacco funzionante basato su tali vulnerabilità. Questo tipo di codice, noto come exploit, rappresenta il passaggio successivo nel processo di sfruttamento di una vulnerabilità da parte di un attaccante.

Per valutare questa capacità, il team ha condotto centinaia di esperimenti nei quali il modello veniva invitato a generare exploit utilizzando le vulnerabilità scoperte nel codice di Firefox. Nel complesso i ricercatori hanno sostenuto circa 4.000 dollari di costi di API per eseguire questi test. I risultati hanno mostrato che, nonostante la sua efficacia nell’individuazione dei bug, il modello è riuscito a sviluppare exploit funzionanti soltanto in due casi.

Questo risultato evidenzia una differenza importante tra due aspetti fondamentali della sicurezza informatica: la capacità di individuare vulnerabilità e la capacità di sfruttarle attivamente. Secondo i ricercatori, i modelli attuali di intelligenza artificiale risultano molto più efficaci nella fase di analisi e scoperta dei problemi rispetto allo sviluppo di attacchi completi. Questo squilibrio rappresenta attualmente un vantaggio per i difensori della sicurezza informatica, poiché consente agli sviluppatori di utilizzare l’AI come strumento di difesa senza che la stessa tecnologia venga immediatamente utilizzata con la stessa efficacia dagli attaccanti.

Anthropic ha inoltre sottolineato che il modello Claude ha già individuato oltre 500 vulnerabilità zero-day in diversi progetti open source nel corso delle sue attività di ricerca. Le vulnerabilità zero-day sono errori di sicurezza sconosciuti agli sviluppatori del software e rappresentano una delle minacce più pericolose nel campo della sicurezza informatica. La capacità di identificare rapidamente questi problemi prima che vengano sfruttati da attori malevoli rappresenta quindi un vantaggio significativo per la sicurezza dell’ecosistema software.

Oltre alla scoperta delle vulnerabilità, i modelli AI possono svolgere un ruolo importante anche nella fase di correzione dei bug. Anthropic ha evidenziato come l’utilizzo di strumenti di verifica automatica possa migliorare la qualità delle patch generate dall’intelligenza artificiale. In questi sistemi, il modello AI propone una modifica del codice per correggere una vulnerabilità e uno strumento di verifica controlla automaticamente che la patch risolva effettivamente il problema senza compromettere il funzionamento del software.

Questo approccio consente di automatizzare parte del processo di manutenzione del software, riducendo il tempo necessario per identificare e correggere errori critici. In progetti open source molto complessi, dove il codice può contenere milioni di righe, la capacità di analisi automatizzata rappresenta un vantaggio significativo per i team di sviluppo.

Secondo gli analisti, la ricerca dimostra che l’intelligenza artificiale può diventare uno strumento estremamente potente per i ricercatori di sicurezza e per i maintainer dei progetti open source. La possibilità di analizzare rapidamente grandi quantità di codice permette di individuare vulnerabilità che potrebbero rimanere nascoste per anni nei sistemi software.

Tuttavia, i ricercatori avvertono anche che questo vantaggio potrebbe non durare a lungo. Con il miglioramento delle capacità dei modelli linguistici, è probabile che l’intelligenza artificiale diventi progressivamente più efficace anche nello sviluppo di exploit. In uno scenario futuro, gli stessi strumenti che oggi aiutano i difensori a migliorare la sicurezza del software potrebbero essere utilizzati anche da attori malevoli per automatizzare la scoperta e lo sfruttamento delle vulnerabilità.

Per questo motivo gli esperti sottolineano l’importanza di sviluppare nuove strategie di sicurezza che tengano conto dell’evoluzione dell’intelligenza artificiale. Tra le possibili contromisure vi sono sistemi di monitoraggio più avanzati, processi di revisione del codice più frequenti e strumenti automatizzati di verifica della sicurezza integrati nei cicli di sviluppo del software.

Di Fantasy