IBM ha lanciato un progetto open source chiamato Adversarial Robustness Toolbox (ART) per migliorare la sicurezza nell’intelligenza artificiale (AI). Questo insieme di strumenti, ora disponibile su Hugging Face, aiuterà gli utenti di AI e i data scientist a ridurre i rischi per la sicurezza, affrontando problemi come l’avvelenamento dei dati e le minacce di evasione dei modelli.
ART è stato avviato nel 2018 e donato alla Linux Foundation nel 2020 come progetto open source. È stato sviluppato da IBM come parte di un progetto DARPA chiamato Guaranteeing AI Robustness Against Deception (GARD). L’obiettivo è rendere disponibili strumenti di sicurezza difensivi a più sviluppatori di AI per proteggere i propri modelli dagli attacchi.
Questa iniziativa si basa sull’importanza della robustezza avversaria per migliorare la sicurezza nell’AI. Significa riconoscere che un avversario potrebbe cercare di manipolare i modelli di machine learning a proprio vantaggio e agire di conseguenza per difendersi. ART offre attacchi e difese per varie modalità di AI, come il riconoscimento di immagini e l’elaborazione audio, e continua ad aggiungere nuovi strumenti per affrontare gli attacchi in evoluzione.