Immagine AI

L’utilizzo dei modelli AI avanzati nella ricerca di vulnerabilità informatiche sta raggiungendo un livello che fino a pochi anni fa sembrava ancora lontano. Un nuovo caso emerso nel settore cybersecurity mostra infatti come un modello linguistico utilizzato per attività di auditing sia riuscito ad accelerare drasticamente l’individuazione di una catena di exploit capace di aggirare alcune delle più avanzate protezioni di sicurezza di macOS.

Secondo le informazioni rese pubbliche dai ricercatori coinvolti, il sistema AI è stato utilizzato durante attività di analisi del codice e combinazione di vulnerabilità multiple, contribuendo a identificare una sequenza di attacco in grado di compromettere il meccanismo di protezione “Memory Integrity Enforcement” introdotto da Apple. Si tratta di una tecnologia sviluppata per rafforzare l’integrità della memoria del sistema operativo e limitare escalation di privilegi e manipolazioni malevole dei processi.

L’aspetto più significativo non riguarda soltanto la vulnerabilità in sé, ma la velocità con cui l’AI ha contribuito alla scoperta del vettore di attacco. Secondo quanto riportato, il modello sarebbe riuscito ad assistere i ricercatori nella costruzione del codice exploit in pochi giorni, riducendo drasticamente tempi che normalmente richiedono settimane o mesi di reverse engineering manuale.

L’attacco descritto combina più bug differenti e tecniche di privilege escalation. Questo tipo di exploit chain è particolarmente complesso perché non si basa su una singola vulnerabilità isolata, ma sulla concatenazione di errori che, presi individualmente, potrebbero avere impatto limitato. L’AI si è dimostrata particolarmente efficace proprio nell’analizzare grandi quantità di codice e individuare correlazioni tra componenti apparentemente separate del sistema operativo.

I ricercatori hanno comunque chiarito che il modello non avrebbe creato autonomamente tecniche completamente inedite, ma avrebbe mostrato capacità molto avanzate nel ricombinare metodologie già conosciute, accelerando enormemente il lavoro umano. Questo dettaglio è importante perché evidenzia la direzione attuale della cybersecurity AI-driven: non necessariamente un’intelligenza artificiale “creativa” nel senso classico, ma sistemi estremamente efficienti nel correlare, riprodurre e ottimizzare tecniche offensive già esistenti.

Il caso riaccende inoltre il dibattito sul cosiddetto “Bugmageddon”, termine sempre più utilizzato nel settore per descrivere il possibile aumento esponenziale della scoperta simultanea di vulnerabilità grazie ai modelli AI. Con sistemi capaci di analizzare codice sorgente, logiche applicative, gestione memoria e librerie software a velocità irraggiungibili per i team umani tradizionali, il numero di vulnerabilità individuabili potrebbe crescere molto più rapidamente della capacità delle aziende di correggerle.

Questo scenario crea un doppio effetto. Da un lato, le AI possono diventare strumenti estremamente potenti per auditing, penetration testing e hardening delle infrastrutture; dall’altro, le stesse capacità potrebbero essere sfruttate per automatizzare parte della ricerca offensiva, abbassando la barriera tecnica necessaria per sviluppare exploit sofisticati. La distinzione tra uso difensivo e offensivo diventa quindi sempre più sottile.

Negli ultimi mesi diversi laboratori AI stanno investendo massicciamente nella sicurezza automatizzata del codice. I modelli più recenti vengono già utilizzati per vulnerability discovery, fuzzing intelligente, code auditing e simulazioni di attacco multi-step. Alcuni sistemi sono inoltre in grado di identificare pattern anomali all’interno di repository enormi, suggerendo vulnerabilità potenziali prima ancora che emergano exploit pubblici.

Di Fantasy