La Visione di Menlo Ventures sul Futuro della Sicurezza nell’Intelligenza Artificiale

Menlo Ventures prevede che l’infrastruttura dell’intelligenza artificiale (AI) moderna possa crescere e creare valore in modo simile alle piattaforme cloud pubbliche. Questa società di venture capital equipara i modelli di AI fondamentali attuali ai primi giorni dei servizi cloud pubblici, sottolineando l’importanza cruciale di combinare correttamente AI e sicurezza per permettere al mercato in evoluzione di raggiungere il suo pieno potenziale.

Nel loro ultimo post sul blog, “Parte 1: Sicurezza per l’AI: La Nuova Ondata di Startup Che Corrono per Proteggere lo Stack AI”, Menlo Ventures espone come la fusione tra AI e sicurezza potrebbe stimolare la crescita di nuovi mercati.

L’Analogia tra Modelli Fondazionali e Cloud Pubblici

Rama Sekhar, nuovo partner di Menlo Ventures specializzato in investimenti nel campo della cybersecurity, dell’AI e dell’infrastruttura cloud, ha condiviso un’interessante analogia con VentureBeat: i modelli fondazionali di AI sono paragonabili alle piattaforme cloud pubbliche come AWS e Azure. Circa 12-15 anni fa, quando queste infrastrutture come servizio stavano emergendo, hanno generato un’immensa creazione di valore. Sekhar prevede un’evoluzione simile per i provider di modelli fondazionali di AI.

Superare il Paradosso tra AI e Sicurezza per Accelerare la Crescita dell’AI Generativa

Sekhar e Feyza Haskaraman, principale nel settore della Cybersecurity, SaaS, Supply Chain e Automazione, evidenziano come i modelli di AI diventino centrali in uno stack AI moderno, che richiede un flusso costante di dati aziendali sensibili per l’apprendimento automatico. Tuttavia, la diffusione dell’AI sta ampliando esponenzialmente le superfici di attacco, rendendo i modelli di lingua di grandi dimensioni (LLM) obiettivi primari per gli attacchi.

Sekhar e Haskaraman notano una lacuna di fiducia tra l’hype dell’AI generativa nelle imprese e la sua adozione effettiva, ampliata dalle tecniche basate sull’AI utilizzate dagli attaccanti, aumentando le preoccupazioni sul perdere la “guerra dell’AI”.

Governance, Osservabilità e Sicurezza come Fondamenta

Menlo Ventures pone l’accento sulla governance, osservabilità e sicurezza come basi necessarie per scalare la sicurezza nell’AI. Gli strumenti di governance stanno conoscendo una crescita rapida, essenziali per monitorare l’utilizzo dei servizi di AI e per le valutazioni dei rischi. Le soluzioni di osservabilità sono cruciali per il monitoraggio dei modelli e per garantire l’auditabilità completa. Inoltre, le soluzioni di sicurezza si concentrano sull’istituzione di confini di fiducia e barriere di protezione.

Integrazione della Sicurezza nell’AI fin dalla Fase di DevOps

Sekhar e Haskaraman ritengono che la sicurezza per l’AI debba essere integrata così profondamente nel processo DevOps da diventare innata nelle applicazioni aziendali. Questo approccio, secondo loro, contribuirà a colmare la lacuna di fiducia esistente che ostacola l’adozione dell’AI generativa su larga scala.

Con un occhio sempre aperto sulle opportunità per rafforzare la catena di fornitura del software e chiudere le lacune di fiducia, Menlo Ventures continua a esplorare nuove vie per garantire che la sicurezza nell’AI sia una priorità fin dall’inizio dello sviluppo delle applicazioni aziendali.

Di ihal