Protect AI, una società specializzata nella sicurezza per l’intelligenza artificiale e l’apprendimento automatico (ML), ha annunciato con successo di aver raccolto 35 milioni di dollari in un round di finanziamento di serie A. Il round è stato guidato da Evolution Equity Partners e ha visto la partecipazione di Salesforce Ventures, nonché degli investitori esistenti Acrew Capital, boldstart ventures, Knollwood Capital e Pelion Ventures.

Fondata da Ian Swanson, un esperto che in passato ha guidato l’attività globale di intelligenza artificiale e ML di Amazon Web Services, l’azienda mira a rafforzare la sicurezza dei sistemi ML e delle applicazioni di intelligenza artificiale contro vulnerabilità, violazioni dei dati e minacce emergenti.

La sicurezza nell’ambito dell’AI/ML è diventata una sfida sempre più complessa per le aziende che cercano di mantenere inventari completi degli asset e degli elementi all’interno dei loro sistemi ML. La crescita rapida delle risorse della catena di approvvigionamento, come i modelli di base e i set di dati di formazione esterni di terze parti, rende questa difficoltà ancora più accentuata.

Queste sfide di sicurezza mettono le organizzazioni a rischio di non conformità alle normative, perdita di dati sensibili, manipolazione dei dati e intossicazione dei modelli.

Per affrontare queste preoccupazioni, Protect AI ha sviluppato una piattaforma di sicurezza chiamata AI Radar, che fornisce agli sviluppatori di intelligenza artificiale, ingegneri di machine learning e professionisti di sicurezza delle applicazioni (AppSec) funzionalità di visibilità, rilevamento e gestione in tempo reale per i loro ambienti ML.

Con un finanziamento totale di 48,5 milioni di dollari fino ad oggi, l’azienda intende utilizzare i fondi appena acquisiti per espandere le attività di vendita e marketing, migliorare le strategie di penetrazione del mercato, investire in ricerca e sviluppo e potenziare le iniziative di successo per i clienti.

Nell’ambito dell’accordo di finanziamento, Richard Seewald, fondatore e managing partner di Evolution Equity Partners, entrerà a far parte del consiglio di amministrazione di Protect AI.

Protect AI afferma che gli strumenti di sicurezza tradizionali spesso mancano della visibilità necessaria per monitorare i sistemi dinamici di ML e i flussi di lavoro dei dati, lasciando le organizzazioni insufficientemente preparate per rilevare minacce e vulnerabilità nella catena di approvvigionamento ML.

Per affrontare questa preoccupazione, AI Radar incorpora controlli di sicurezza continuamente integrati per proteggere gli ambienti ML da fughe di dati attive, vulnerabilità dei modelli e altri rischi per la sicurezza dell’IA.

La piattaforma utilizza strumenti di scansione del modello integrati per il monitoraggio di inferenze di machine learning e altri carichi di lavoro per rilevare violazioni delle policy di sicurezza, vulnerabilità dei modelli e attacchi di iniezione di codice dannoso. Inoltre, AI Radar può integrarsi con strumenti di sicurezza delle applicazioni e di orchestrazione CI/CD di terze parti, nonché con framework di robustezza dei modelli.

La società afferma che il livello di visualizzazione fornito dalla piattaforma offre informazioni in tempo reale sulla superficie di attacco di un sistema ML. Inoltre, genera e aggiorna automaticamente una Matrice di Bill of Materials (MLBOM) sicura e dinamica che tiene traccia di tutti i componenti e le dipendenze all’interno del sistema ML.

Protect AI enfatizza che questo approccio garantisce visibilità e verificabilità complete nella catena di fornitura AI/ML. Il sistema mantiene record immutabili con timestamp, registrando eventuali violazioni delle policy e modifiche apportate.

Rispetto a una tradizionale Base di Materiali Software (SBOM), la MLBOM della piattaforma include un inventario completo di dati, artefatti del modello e codice.

Inoltre, AI Radar rimane indipendente dal fornitore e integra perfettamente tutti questi diversi sistemi ML, creando un’astrazione unificata o un “singolo pannello di vetro”. In questo modo, i clienti possono accedere prontamente a informazioni cruciali sulla posizione e l’origine di qualsiasi modello ML e sui dati e sui componenti utilizzati nella sua creazione.

La società prevede di mantenere gli investimenti in ricerca e sviluppo in tre aree cruciali: migliorare le capacità di AI Radar, espandere la ricerca per identificare e segnalare ulteriori vulnerabilità critiche nella catena di approvvigionamento ML, sia nelle offerte open-source che nei fornitori, e promuovere gli investimenti nei progetti open-source NB Difesa e Rebuff AI.

Di Fantasy