In un nuovo studio pubblicato oggi da IBM e Amazon Web Services (AWS), viene evidenziato che non esiste una soluzione semplice e universale per proteggere la gen AI, soprattutto in questo momento. Il rapporto si basa su un sondaggio condotto dall’IBM Institute for Business Value che ha coinvolto dirigenti di organizzazioni statunitensi. Sebbene molte di queste organizzazioni considerino l’intelligenza artificiale un’importante iniziativa, il sondaggio ha rilevato un alto livello di preoccupazione per la sicurezza. L’82% dei dirigenti intervistati ha affermato che un’intelligenza artificiale sicura e affidabile è fondamentale per il successo aziendale.

Tuttavia, nonostante quest’entusiasmo per la sicurezza, i risultati del sondaggio rivelano una discrepanza con ciò che sta accadendo nella realtà. Solo il 24% delle attuali iniziative di IA generativa viene adeguatamente garantito dalle organizzazioni, secondo quanto riportato nel rapporto. Queste preoccupazioni non sono esclusive di IBM, con altri attori del settore che sollevano dubbi sulla sicurezza. Recentemente, PwC ha riferito che il 77% dei CEO è preoccupato per i rischi legati alla sicurezza informatica dell’IA.

Per migliorare la situazione, IBM sta collaborando con AWS su approcci diversi. Oggi, IBM annuncia anche il servizio IBM X-Force Red Testing Service for AI, progettato per migliorare ulteriormente la sicurezza dell’IA generativa.

Secondo Dimple Ahluwalia, Global Senior Partner per i servizi di sicurezza informatica presso IBM Consulting, i leader aziendali sono divisi su come affrontare la sicurezza nell’implementazione dell’IA. Mentre la pressione per innovare con l’IA è alta, la sicurezza spesso diventa un’aggiunta secondaria.

Il rapporto evidenzia che il 69% delle organizzazioni mette l’innovazione prima della sicurezza. Questo dimostra che la sicurezza non è ancora pienamente integrata in tutte le aree aziendali. Tuttavia, i leader comprendono l’importanza della sicurezza e stanno lavorando per affrontare il problema per rendere più efficaci le implementazioni di produzione dell’IA generativa.

Il rapporto raccomanda di iniziare dalla governance per creare fiducia nella gen AI. Questo include la definizione di politiche, processi e controlli allineati agli obiettivi aziendali. Una volta impostata la governance, è essenziale proteggere l’intera pipeline di intelligenza artificiale utilizzando strumenti e controlli adeguati, con una stretta collaborazione tra team di sicurezza, tecnologia e aziendali.

Oltre alla governance, è cruciale validare e testare le implementazioni. Il servizio di test per l’intelligenza artificiale di IBM X-Force Red è il primo del suo genere e coinvolge un team di esperti in test di penetrazione, intelligenza artificiale e scienza dei dati. Questo servizio si basa sulla tradizionale pratica della “squadra rossa”, dove un gruppo attacca proattivamente le risorse per identificare le vulnerabilità.

Secondo Chris Thompson, responsabile globale di X-Force Red presso IBM, gli attacchi contro le app gen AI richiedono un approccio integrato che esamini l’intera pipeline dell’IA. IBM sta adottando un approccio olistico per identificare i punti deboli e migliorare la sicurezza nell’implementazione di soluzioni di intelligenza artificiale.

Di Fantasy