Immagine AI

L’utilizzo dell’intelligenza artificiale nella cybersecurity sta entrando in una fase molto diversa rispetto agli esperimenti condotti fino a pochi mesi fa. Il caso reso pubblico dal team di sviluppo di Mozilla Firefox mostra infatti come i moderni sistemi agentici AI stiano iniziando a produrre risultati concreti nella scoperta automatizzata di vulnerabilità software complesse, incluse falle considerate estremamente difficili da individuare persino per i ricercatori specializzati. Nel rapporto tecnico pubblicato il 7 maggio, Mozilla ha spiegato di aver sviluppato un’infrastruttura di analisi automatizzata basata sul modello Claude Mythos di Anthropic, riuscendo a identificare e correggere un numero eccezionalmente elevato di bug di sicurezza all’interno del codice di Firefox.

I numeri descritti nel report evidenziano immediatamente la portata del cambiamento. Nell’aprile 2025 Firefox aveva corretto 31 vulnerabilità di sicurezza. Nell’aprile di quest’anno il numero è salito a 423 bug risolti. La differenza non viene attribuita semplicemente a una maggiore attività di revisione del codice, ma direttamente all’introduzione di nuovi sistemi di analisi AI agentica integrati nell’infrastruttura di sicurezza del browser.

Secondo Mozilla, molte delle vulnerabilità individuate erano rimaste nascoste nel codice per oltre dieci o quindici anni. Alcuni bug ad alto rischio erano presenti da così tanto tempo da essere ormai considerati parte stabile dell’architettura storica del browser. Questo aspetto è particolarmente significativo perché mostra come l’AI non stia semplicemente accelerando processi già esistenti, ma stia riuscendo a esplorare percorsi di analisi che i workflow tradizionali non avevano mai coperto in modo efficace.

Uno dei punti centrali dell’intero progetto riguarda la capacità di individuare vulnerabilità legate all’evasione delle sandbox del browser. Le sandbox rappresentano uno dei meccanismi di sicurezza più critici nei moderni browser web. Il loro compito è isolare il codice eseguito dal browser impedendo che eventuali componenti malevoli possano ottenere accesso diretto al sistema operativo o ad aree sensibili della memoria.

Le vulnerabilità sandbox escape sono considerate tra le più difficili da individuare e sfruttare perché richiedono normalmente catene di attacco multi-fase, manipolazioni sofisticate della memoria e una conoscenza estremamente dettagliata dell’architettura interna del browser. Proprio per questo il programma di bug bounty di Mozilla arriva a offrire ricompense fino a 20.000 dollari per la scoperta di bug di questo tipo.

Brian Grinstead, ingegnere Mozilla coinvolto nel progetto, ha spiegato che i ricercatori umani avevano già identificato vulnerabilità sandbox anche in passato, ma che i nuovi sistemi AI stanno trovando un numero di falle molto superiore rispetto ai metodi tradizionali. Questo cambiamento, però, non deriva semplicemente dalla presenza di modelli linguistici più potenti.

Mozilla sottolinea infatti che il salto qualitativo non è stato prodotto dall’utilizzo diretto di grandi modelli linguistici come GPT-4 o Claude Sonnet 3.5 in modalità standalone. I primi esperimenti basati esclusivamente su analisi statica tramite LLM avevano generato un numero troppo elevato di falsi positivi, rendendo il sistema poco pratico per l’utilizzo reale all’interno di un workflow di sicurezza professionale.

Il vero cambiamento è arrivato con la costruzione di un’infrastruttura agentica integrata direttamente con il sistema di fuzzing di Firefox. In questo contesto, l’intelligenza artificiale non si limita a suggerire aree sospette del codice, ma genera autonomamente casi di test riproducibili, modifica porzioni di codice per simulare attacchi e verifica concretamente se sia possibile produrre un comportamento vulnerabile.

Mozilla ha costruito un sistema distribuito capace di operare file per file sull’intero repository del browser, eseguendo task paralleli su più macchine virtuali. Il modello AI crea scenari di exploit, altera parti del codice e osserva il comportamento risultante per determinare se sia effettivamente possibile aggirare le protezioni della sandbox o ottenere escalation di privilegi.

Questa architettura segna un’evoluzione importante rispetto ai tradizionali strumenti di static analysis. Storicamente, gli scanner automatici di sicurezza lavoravano principalmente su pattern noti o euristiche relativamente semplici. I nuovi sistemi agentici, invece, possono costruire dinamicamente catene di comportamento e simulazioni di attacco molto più vicine al ragionamento offensivo umano.

Mozilla ha spiegato che gli esperimenti iniziali erano stati avviati utilizzando Claude Opus su scala ridotta. Successivamente il sistema è stato esteso fino a operare in modo massivamente parallelo su vaste porzioni del codice di Firefox. L’AI ha iniziato a generare autonomamente varianti di exploit e scenari di esecuzione, verificando se le modifiche introdotte potessero produrre violazioni della sicurezza.

Tra le vulnerabilità individuate figurano bug relativi all’analisi HTML, problemi di privilege escalation e diverse tecniche di bypass delle sandbox. Questo è particolarmente rilevante perché molte di queste vulnerabilità richiedono normalmente anni di esperienza nella sicurezza browser e una comprensione molto approfondita delle interazioni tra rendering engine, motore JavaScript e sistema operativo.

Uno degli aspetti più interessanti emersi dal report riguarda però i limiti stessi dell’intelligenza artificiale. Mozilla ha spiegato che alcune modifiche architetturali implementate negli ultimi anni per difendersi dagli attacchi di prototype pollution e privilege escalation non sono state superate nemmeno dai sistemi AI agentici. In particolare, il modello non è riuscito a bypassare alcune protezioni strutturali introdotte per bloccare determinati percorsi di escalation dei privilegi. I ricercatori Mozilla interpretano questo risultato come una validazione concreta dell’efficacia delle mitigazioni architetturali già implementate nel browser. In pratica, l’AI non ha semplicemente trovato vulnerabilità: ha anche dimostrato empiricamente che alcune difese progettate dagli ingegneri umani risultano effettivamente robuste contro tecniche offensive avanzate.

Il report mostra inoltre che l’automazione completa della correzione del codice vulnerabile è ancora lontana. Sebbene il sistema AI sia in grado di suggerire patch e modifiche correttive, Mozilla afferma che i risultati non sono ancora sufficientemente affidabili per essere integrati direttamente nel codice di produzione senza supervisione umana. Gli ingegneri continuano quindi a eseguire manualmente revisione, validazione e implementazione finale delle correzioni. Questo punto è molto importante perché ridimensiona alcune narrazioni eccessivamente ottimistiche sull’automazione totale dello sviluppo software. Almeno nel settore della sicurezza critica, l’intelligenza artificiale sta dimostrando enormi capacità nella scoperta dei problemi, ma non ha ancora raggiunto un livello affidabile nella gestione autonoma delle patch.

L’esperienza di Mozilla evidenzia però un cambiamento strutturale molto più ampio nel settore cybersecurity. Le stesse tecnologie agentiche utilizzate per rafforzare la sicurezza difensiva possono infatti essere impiegate anche dagli attaccanti per automatizzare ricerca di exploit, analisi del codice e generazione di attacchi complessi.

Per questo motivo cresce la percezione che il settore stia entrando in una fase di competizione “AI contro AI”, in cui sia i difensori sia gli attaccanti utilizzano sistemi agentici automatizzati per accelerare rispettivamente protezione ed exploit del software.

Lo stesso Brian Grinstead ha assunto una posizione relativamente prudente su questo scenario, spiegando che l’intelligenza artificiale rappresenta uno strumento potente per entrambe le parti, ma che attualmente sembra offrire un leggero vantaggio alla difesa. Questa osservazione è significativa perché suggerisce che, almeno per ora, la velocità con cui l’AI può identificare e correggere vulnerabilità potrebbe superare la capacità offensiva di sfruttarle su larga scala.

Mozilla intende ora estendere ulteriormente questa infrastruttura integrando direttamente l’analisi AI nel sistema di Continuous Integration del browser. L’obiettivo è costruire un framework capace di eseguire scansioni automatiche di sicurezza ogni volta che nuovo codice viene caricato nel repository, trasformando la ricerca delle vulnerabilità in un processo continuo e permanente anziché in attività isolate di auditing periodico.

Di Fantasy