Immagine AI

Nella sicurezza informatica, un nuovo exploit denominato RisingAttacK sta attirando l’attenzione per la sua capacità di ingannare i sistemi di intelligenza artificiale (IA) che analizzano le immagini. Sviluppato da ricercatori dell’Università della Carolina del Nord, questo metodo sfrutta impercettibili modifiche visive per indurre l’IA a non riconoscere oggetti chiaramente presenti in una fotografia, mentre l’occhio umano li percepisce senza difficoltà.

L’intelligenza artificiale, in particolare i sistemi di visione artificiale, è sempre più integrata in applicazioni critiche come la guida autonoma, la diagnostica medica e i sistemi di sicurezza. Tuttavia, RisingAttacK evidenzia una vulnerabilità significativa: la possibilità di manipolare le immagini in modo tale che l’IA non riconosca correttamente gli oggetti, compromettendo l’affidabilità e la sicurezza di tali sistemi.

Il funzionamento di RisingAttacK si articola in diverse fasi: inizialmente, il programma identifica tutte le caratteristiche visive dell’immagine, quindi determina quali di esse sono più rilevanti per l’obiettivo dell’attacco. Questo processo richiede notevole potenza di calcolo, ma consente di apportare modifiche estremamente precise e minime all’immagine. Il risultato è un’immagine che appare identica all’occhio umano, ma che l’IA interpreta in modo errato.

Le potenziali applicazioni di RisingAttacK sollevano preoccupazioni significative in vari settori. Nel contesto della guida autonoma, ad esempio, un attacco riuscito potrebbe impedire a un veicolo di riconoscere semafori, pedoni o altri ostacoli sulla strada, aumentando il rischio di incidenti. In ambito medico, la manipolazione delle immagini potrebbe portare a diagnosi errate, con gravi conseguenze per la salute dei pazienti. Anche i sistemi di sicurezza basati sul riconoscimento di pattern potrebbero essere vulnerabili a questo tipo di exploit.

I ricercatori hanno testato RisingAttacK su quattro dei programmi di visione artificiale più comuni: ResNet-50, DenseNet-121, ViTB e DEiT-B. Il metodo si è dimostrato efficace su tutti i sistemi, senza eccezioni. Questo suggerisce che la vulnerabilità potrebbe essere estesa a una vasta gamma di applicazioni basate sull’IA.

Attualmente, i ricercatori stanno esplorando la possibilità di utilizzare RisingAttacK contro altri tipi di sistemi di intelligenza artificiale, compresi i grandi modelli linguistici, per comprendere la portata completa delle potenziali minacce. Solo conoscendo l’esistenza di tali vulnerabilità è possibile sviluppare contromisure efficaci per proteggere i sistemi di IA e garantire la loro affidabilità e sicurezza.

Di Fantasy