La startup Protect AI, con sede a Seattle, sta espandendo la sua soluzione di piattaforma per affrontare la sfida di proteggere l’intelligenza artificiale. Lo sta facendo attraverso l’acquisizione della società privata Laiyer AI, che è l’azienda leader dietro il progetto open source LLM Guard. Non sono stati resi pubblici i dettagli finanziari dell’accordo, ma questa acquisizione consentirà a Protect AI di migliorare la sua piattaforma di sicurezza AI per proteggere meglio le organizzazioni dagli eventuali rischi associati allo sviluppo e all’uso di modelli linguistici di grandi dimensioni (LLM).
La principale piattaforma commerciale sviluppata da Protect AI si chiama Radar ed offre funzionalità di visibilità, rilevamento e gestione per i modelli AI/ML. Nel luglio 2023, l’azienda ha raccolto 35 milioni di dollari in una serie di finanziamenti di serie A per ampliare i propri sforzi nella sicurezza dell’intelligenza artificiale.
Daryan (D) Dehghanpisheh, presidente e fondatore di Protect AI, ha dichiarato che vogliono promuovere l’adozione di MLSecOps per aiutare a individuare, comprendere e gestire tutti i tipi di rischi e vulnerabilità legati all’IA nel settore.
Laiyer AI, tramite il progetto open source LLM Guard, contribuisce a regolare l’uso delle operazioni LLM. LLM Guard offre controlli di input per proteggere dagli attacchi di iniezione tempestiva, un crescente rischio nell’uso dell’IA. Questa tecnologia open source include anche il controllo degli input per limitare il rischio di perdita di informazioni personali (PII) e di linguaggio tossico. Dal lato dell’output, LLM Guard aiuta a proteggere gli utenti da vari rischi, tra cui URL dannosi.
Protect AI si impegna a mantenere la tecnologia principale di LLM Guard open source, con l’obiettivo di sviluppare una versione commerciale chiamata Laiyer AI con ulteriori funzionalità aziendali.
Inoltre, Protect AI lavorerà per integrare la tecnologia LLM Guard nella sua piattaforma per proteggere l’uso dell’IA dall’inizio del processo di sviluppo del modello fino alla distribuzione.
L’azienda ha una storia di trasformazione di progetti open source in prodotti commerciali ed è anche coinvolta nel progetto ModelScan, un altro progetto open source che identifica i rischi per la sicurezza nei modelli di apprendimento automatico. La tecnologia di scansione del modello è alla base della tecnologia commerciale Guardian di Protect AI, annunciata la scorsa settimana.
La scansione dei modelli per le vulnerabilità è una sfida, poiché i modelli di machine learning sono codici autoeseguibili e possono incorporare chiamate eseguibili potenzialmente dannose. La tecnologia Guardian di Protect AI aiuta a identificare questi rischi.
Protect AI mira a integrare le sue soluzioni nella piattaforma Radar e con gli strumenti di sicurezza esistenti, come i sistemi SIEM, per fornire una visione completa della sicurezza dell’IA nelle organizzazioni.
L’obiettivo finale è creare una politica aziendale che copra tutte le forme di sicurezza dell’intelligenza artificiale.