In base a un recente rapporto, emerge una discrepanza tra le intenzioni dichiarate dei leader della sicurezza e le azioni effettive volte a proteggere l’intelligenza artificiale (AI) e gli sviluppi operativi dell’apprendimento automatico (MLOps).
Il 97% dei leader IT riconosce l’importanza della sicurezza per l’IA e la protezione dei sistemi, ma solo il 61% si sente sicuro di ottenere i finanziamenti necessari. Nonostante il 77% degli intervistati abbia subito violazioni legate all’IA, solo il 30% ha implementato difese manuali contro gli attacchi avversari, inclusi quelli nelle pipeline MLOps.
Solo il 14% sta attualmente pianificando e testando tali difese. Secondo Amazon Web Services, MLOps è un insieme di pratiche per automatizzare e semplificare i flussi di lavoro e le distribuzioni di machine learning (ML).
I leader IT stanno sempre più affidando sui modelli di AI, rendendoli bersagli attraenti per attacchi avversari. Le aziende dei leader IT in media hanno 1.689 modelli in produzione, con il 98% che li considera cruciali per il successo aziendale. L’83% dei modelli viene utilizzato in vari team all’interno delle organizzazioni.
Il rapporto sottolinea che l’industria sta accelerando l’adozione dell’IA senza adottare misure di sicurezza adeguate. Il rapporto di HiddenLayer, l’AI Threat Landscape Report, analizza i rischi per i sistemi basati sull’IA e i progressi nella protezione delle pipeline AI e MLOps.
L’obiettivo dell’intelligenza artificiale avversaria è quello di sabotare i sistemi di AI e ML, rendendoli inefficaci per i loro scopi. Ciò include l’uso di tecniche di AI per manipolare i sistemi. Il rapporto identifica tre classi principali di intelligenza artificiale avversaria:
1) Attacchi avversari di machine learning: mirano a sfruttare le vulnerabilità degli algoritmi e possono essere utilizzati per fini di spionaggio o danneggiare i sistemi.
2) Attacchi ai sistemi di intelligenza artificiale generativa: mirano a eludere i filtri progettati per proteggere i modelli di IA generativa, consentendo la creazione di contenuti dannosi come deepfake o disinformazione.
3) Attacchi MLOps e alla catena di fornitura del software: si concentrano sul compromettere le pipeline MLOps introducendo codice dannoso o dati avvelenati.
Il rapporto suggerisce diverse misure di difesa, inclusa l’integrazione di modalità biometriche e tecniche di autenticazione senza password, il mantenimento di sistemi di verifica aggiornati e la pianificazione di attività di squadra rossa come parte integrante dei flussi di lavoro DevSecOps.