L’intelligenza artificiale è una tecnologia in rapida crescita che offre molti vantaggi per la società. Tuttavia, come con tutte le nuove tecnologie, l’uso improprio è un rischio potenziale. Uno dei potenziali abusi più preoccupanti dell’IA può essere trovato sotto forma di attacchi dell’IA contraddittoria.
In un attacco IA contraddittorio , l’IA viene utilizzata per manipolare o ingannare un altro sistema di intelligenza artificiale in modo dannoso. La maggior parte dei programmi di intelligenza artificiale apprende, si adatta ed evolve attraverso l’apprendimento comportamentale. Ciò li rende vulnerabili allo sfruttamento perché crea spazio in cui chiunque può insegnare a un algoritmo di intelligenza artificiale azioni dannose, portando alla fine a risultati contraddittori. I criminali informatici e gli attori delle minacce possono sfruttare questa vulnerabilità per scopi e intenzioni dannose.
Sebbene la maggior parte degli attacchi contraddittori sia stata finora eseguita da ricercatori e all’interno dei laboratori, sono motivo di crescente preoccupazione. Il verificarsi di un attacco contraddittorio all’IA o a un algoritmo di apprendimento automatico evidenzia una profonda crepa nel meccanismo dell’IA. La presenza di tali vulnerabilità all’interno dei sistemi di intelligenza artificiale può arrestare la crescita e lo sviluppo dell’IA e diventare un rischio significativo per la sicurezza per le persone che utilizzano sistemi integrati con intelligenza artificiale. Pertanto, per sfruttare appieno il potenziale dei sistemi e degli algoritmi di IA, è fondamentale comprendere e mitigare gli attacchi dell’IA avversaria.
Comprendere gli attacchi dell’IA avversaria
Sebbene il mondo moderno in cui viviamo ora sia profondamente stratificato con l’IA, deve ancora conquistare completamente il mondo. Sin dal suo avvento, l’IA è stata accolta con critiche etiche, che hanno suscitato un’esitazione comune nell’adottarla completamente. Tuttavia, la crescente preoccupazione che le vulnerabilità nei modelli di apprendimento automatico e negli algoritmi di intelligenza artificiale possano diventare parte di scopi dannosi è un enorme ostacolo alla crescita dell’IA/ML.
I parallelismi di base di un attacco contraddittorio sono fondamentalmente gli stessi: manipolare un algoritmo AI o un modello ML per produrre risultati dannosi. Tuttavia, un attacco contraddittorio in genere comporta le due cose seguenti:
Avvelenamento: il modello ML viene alimentato con dati imprecisi o mal interpretati per indurlo a fare una previsione errata
Contaminazione: il modello ML viene alimentato con dati progettati in modo dannoso per ingannare un modello già addestrato e farlo condurre azioni e previsioni dannose.
In entrambi i metodi, è molto probabile che la contaminazione diventi un problema diffuso. Poiché la tecnica coinvolge un attore malintenzionato che inietta o fornisce informazioni negative, queste azioni possono rapidamente diventare un problema diffuso con l’aiuto di altri attacchi. Al contrario, sembra facile controllare e prevenire l’avvelenamento poiché fornire un set di dati di addestramento richiederebbe un lavoro da insider. È possibile prevenire tali minacce interne con un modello di sicurezza zero-trust e altri protocolli di sicurezza della rete.
Tuttavia, proteggere un’azienda dalle minacce del contraddittorio sarà un compito difficile. Sebbene i tipici problemi di sicurezza online siano facili da mitigare utilizzando vari strumenti come proxy residenziali, VPN o persino software antimalware, le minacce dell’IA avversaria potrebbero superare queste vulnerabilità , rendendo questi strumenti troppo primitivi per abilitare la sicurezza.
In che modo l’IA antagonista è una minaccia?
L’intelligenza artificiale è già una parte fondamentale e ben integrata di settori critici come la finanza, l’assistenza sanitaria e i trasporti. I problemi di sicurezza in questi campi possono essere particolarmente pericolosi per tutte le vite umane. Poiché l’IA è ben integrata nelle vite umane, l’impatto delle minacce del contraddittorio nell’IA può causare un enorme scompiglio.
Nel 2018, un rapporto dell’Ufficio del Direttore della sicurezza nazionale ha evidenziato diverse minacce di apprendimento automatico contraddittorio. Tra le minacce elencate nel rapporto, una delle preoccupazioni più urgenti era il potenziale che questi attacchi avevano nel compromettere gli algoritmi di visione artificiale.
La ricerca ha finora trovato diversi esempi di posizionamento dell’IA. Uno di questi studi ha coinvolto ricercatori che hanno aggiunto piccoli cambiamenti o “perturbazioni” all’immagine di un panda, invisibile ad occhio nudo. Le modifiche hanno indotto l’algoritmo ML a identificare l’immagine del panda come quella di un gibbone.
Allo stesso modo, un altro studio evidenzia la possibilità di contaminazione dell’IA che ha coinvolto gli aggressori che hanno ingannato le telecamere di riconoscimento facciale con luce a infrarossi. Questa azione ha consentito a questi attacchi di mitigare il riconoscimento accurato e consentirà loro di impersonare altre persone.
Inoltre, gli attacchi del contraddittorio sono evidenti anche nella manipolazione del filtro antispam delle e-mail. Poiché gli strumenti di filtro antispam per e-mail filtrano correttamente le e-mail di spam tracciando determinate parole, gli aggressori possono manipolare questi strumenti utilizzando parole e frasi accettabili, ottenendo l’accesso alla posta in arrivo del destinatario. Pertanto, pur considerando questi esempi e queste ricerche, è facile identificare l’impatto degli attacchi dell’IA contraddittoria sul panorama delle minacce informatiche, come ad esempio:
L’intelligenza artificiale contraddittoria apre la possibilità di rendere inutili gli strumenti di sicurezza basati sull’intelligenza artificiale come i filtri di phishing.
I dispositivi IoT sono basati sull’intelligenza artificiale. Gli attacchi avversari nei loro confronti potrebbero portare a tentativi di hacking su larga scala.
Gli strumenti di intelligenza artificiale tendono a raccogliere informazioni personali. Gli attacchi possono manipolare questi strumenti per rivelare le informazioni personali raccolte.
L’IA è una parte del sistema di difesa. Gli attacchi avversari agli strumenti di difesa possono mettere in pericolo la sicurezza nazionale.
Può portare a una nuova varietà di attacchi che non vengono rilevati.
È sempre più cruciale mantenere la sicurezza e la vigilanza contro gli attacchi dell’IA del contraddittorio.
Esiste una prevenzione?
Considerando il potenziale sviluppo dell’IA nel rendere le vite umane più gestibili e molto più sofisticate, i ricercatori stanno già escogitando vari modi per proteggere i sistemi dall’IA avversaria. Uno di questi metodi è l’adversarial training, che prevede il pre-training dell’algoritmo di apprendimento automatico contro i tentativi di posizionamento e contaminazione alimentandolo con possibili perturbazioni.
Nel caso degli algoritmi di visione artificiale, gli algoritmi verranno predisposti con immagini e loro alterchi. Ad esempio, un algoritmo visivo dell’auto progettato per identificare il segnale di stop avrà appreso tutte le possibili alterazioni del segnale di stop, come adesivi, graffiti o persino lettere mancanti. L’algoritmo identificherà correttamente i fenomeni nonostante le manipolazioni dell’attaccante. Tuttavia, questo metodo non è infallibile poiché è impossibile identificare tutte le possibili iterazioni di attacco contraddittorio.
L’algoritmo utilizza caratteristiche di qualità dell’immagine non intrusive per distinguere tra input legittimi e contraddittori. La tecnica può potenzialmente garantire che l’importatore di apprendimento automatico contraddittorio e l’alternanza vengano neutralizzati prima di raggiungere le informazioni sulla classificazione. Un altro metodo di questo tipo include la pre-elaborazione e il denoising, che rimuove automaticamente il possibile rumore contraddittorio dall’input.
Conclusione
Nonostante il suo uso prevalente nel mondo moderno, l’IA deve ancora prendere il sopravvento. Sebbene l’apprendimento automatico e l’intelligenza artificiale siano riusciti ad espandersi e persino a dominare alcune aree della nostra vita quotidiana, rimangono significativamente in fase di sviluppo. Fino a quando i ricercatori non saranno in grado di riconoscere pienamente il potenziale dell’IA e dell’apprendimento automatico, rimarrà un buco nel modo in cui mitigare le minacce del contraddittorio all’interno della tecnologia dell’IA. Tuttavia, la ricerca sull’argomento è ancora in corso, principalmente perché è fondamentale per lo sviluppo e l’adozione dell’IA.