È evidente che stiano emergendo nuove startup dedite all’eliminazione delle richieste inappropriate immesse nelle Intelligenze Artificiali Generative (IA), oltre a filtrare le risposte altrettanto inopportune. Queste imprese specializzate si concentrano sulla gestione delle “politiche di utilizzo accettabile”, comunemente noti come “guardrail”, che permettono alle aziende di implementare in modo responsabile servizi basati su Intelligenza Artificiale Generativa.
TechCrunch ha recentemente riportato che Vera, una startup specializzata in questo settore, ha concluso con successo un round di finanziamento da 2,7 milioni di dollari (circa 3,7 miliardi di won).
Vera è stata fondata da Liz O’Sullivan, membro dell’AI Advisory Board degli Stati Uniti e co-fondatrice di Arthur AI, una startup che mira a promuovere la trasparenza delle Large Language Model (LLM) open source. Il CEO O’Sullivan è considerato una figura di spicco in questo campo.
La missione di Verado è quella di mitigare i rischi legati ai modelli di Intelligenza Artificiale Generativa. L’azienda utilizza i propri modelli linguistici e visivi per agire da intermediario tra le aziende che utilizzano LLM e gli utenti, filtrando richieste inappropriati e impedendo la generazione di risposte inopportune da parte delle IA. Questo va oltre l’uso dei tradizionali documenti manuali e liste di controllo.
In particolare, la piattaforma di Vera può bloccare, modificare o trasformare richieste contenenti informazioni sensibili, credenziali di sicurezza o proprietà intellettuale, oppure rilevare attacchi di injection. Particolarmente rilevanti sono gli attacchi di “prompt injection”, che sfruttano prompt dannosi per eludere i filtri di sicurezza, portando a un potenziale “jailbreak” delle IA.
La piattaforma di Vera gioca anche un ruolo cruciale nel promuovere l’etica aziendale, limitando le risposte generate dai modelli di IA.
Questo approccio è in sintonia con l’attuale clima aziendale che impone restrizioni sull’uso delle Intelligenze Artificiali Generative per evitare comportamenti inappropriati o problematici. Aziende di spicco, come Samsung Electronics, Apple, Walmart e Verizon, hanno già vietato o limitato l’uso di IA generative come ChatGPT per tali motivi.
Tuttavia, è importante notare che, come afferma il CEO O’Sullivan, “Nemmeno il modello di Bella è perfetto e può solo eliminare il comportamento peggiore dei modelli di Intelligenza Artificiale Generativa”.
Questo tipo di servizio professionale di “guardrail” è un campo emergente e concorrenziale, con startup come Hidden Layer, DynamoFL e Protect AI che stanno emergendo negli ultimi mesi. Anche le grandi aziende tech stanno sviluppando le proprie soluzioni: NVIDIA ha introdotto un dispositivo chiamato “Nemo Guardrail”, mentre Salesforce ha lanciato il “Einstein Trust Layer”. Microsoft offre servizi di Intelligenza Artificiale che coordinano modelli e contenuti di testo e immagini.
I servizi di Vera possono risultare interessanti per le aziende che cercano una soluzione completa per la moderazione dei contenuti e la gestione dei rischi associati ai modelli di Intelligenza Artificiale. Il CEO O’Sullivan ha annunciato che l’azienda ha già attirato un numero limitato di clienti e sta pianificando di espandere la sua base clienti lanciando presto una lista d’attesa.