IBM ha creato un nuovo quadro di sicurezza chiamato “IBM Framework for Securing Generative AI” per aiutare le aziende a proteggersi dai rischi legati all’intelligenza artificiale (IA) generativa. Questo quadro si concentra su come proteggere i processi che coinvolgono l’IA generativa, dall’inizio alla fine, cioè dalla raccolta dei dati fino alla produzione.
Ci sono alcune sfide uniche nella sicurezza dell’IA generativa, oltre a quelle comuni ad altri tipi di lavoro con l’IA. IBM ha identificato tre principi chiave per affrontare questi rischi: proteggere i dati, il modello e il suo utilizzo. Questo significa assicurarsi che ci siano infrastrutture sicure e governance per tutta la durata del processo di IA.
Ci sono rischi specifici associati all’IA generativa, come il “poisoning” dei dati, dove dati falsi vengono inseriti in un set di dati, causando risultati imprecisi. Altri rischi riguardano i bias e la diversità dei dati, la deriva dei dati e la privacy dei dati. C’è anche un rischio emergente chiamato “prompt injection”, in cui qualcuno cerca di manipolare malevolmente l’output di un modello tramite un comando.
L’IBM Framework for Securing Generative AI non è un singolo strumento, ma un insieme di linee guida e suggerimenti su come proteggere i processi legati all’IA generativa. Inoltre, ci sono nuove categorie di strumenti di sicurezza che stanno emergendo per affrontare i rischi specifici dell’IA generativa, come Machine Learning Detection and Response (MLDR), AI Security Posture Management (AISPM) e Machine Learning Security Operation (MLSecOps).
MLDR si occupa di monitorare i modelli e identificare potenziali rischi, mentre AISPM si concentra sulla corretta configurazione e sulle migliori pratiche per garantire una distribuzione sicura, simile a come funziona il Cloud Security Posture Management (CSPM). Infine, MLSecOps copre l’intero ciclo di vita dell’IA generativa, dalla progettazione all’utilizzo, fornendo sicurezza in ogni fase.