Nell’epoca dell’intelligenza artificiale generativa, la sicurezza dei grandi modelli linguistici (LLM) è cruciale, tanto quanto le loro capacità di eseguire varie attività. Molti team stanno intensificando gli sforzi per testare e valutare questi modelli al fine di prevedere e risolvere problemi che potrebbero causare problemi agli utenti, perdita di opportunità o addirittura violazioni normative.
Ma, con l’evoluzione così rapida dei modelli, sia quelli open source che chiusi, come si fa a capire quale LLM sia il più sicuro da utilizzare? Bene, Enkrypt ha la risposta: una classifica di sicurezza per i LLM. Questa startup di Boston, conosciuta per fornire soluzioni per un uso sicuro dell’intelligenza artificiale generativa, ha classificato i LLM dal migliore al peggiore in base alla loro vulnerabilità a vari rischi per la sicurezza e all’affidabilità.
La classifica include molti modelli linguistici con elevate performance, come le famiglie GPT e Claude. Ancora più importante, fornisce informazioni utili sui rischi da considerare nella scelta di un LLM sicuro e affidabile e su come implementare le misure necessarie.
Per comprendere meglio la classifica di sicurezza dei LLM di Enkrypt: quando un’azienda utilizza un grande modello linguistico in un’applicazione, come un chatbot, esegue test continui per individuare rischi per la sicurezza come potenziali attacchi o output distorti. Anche un piccolo errore in questo processo potrebbe causare la divulgazione di informazioni personali o risultati distorti, come è successo con il chatbot Gemini di Google. Questo può avere conseguenze ancora più gravi in settori regolamentati come il fintech o la sanità.
Enkrypt, fondata nel 2023, ha semplificato questo problema per le aziende con Sentry, una soluzione che individua le vulnerabilità nelle app di intelligenza artificiale generativa e implementa misure per prevenirle. Ora, l’azienda sta espandendo la sua offerta con la LLM Safety Leaderboard, che fornisce insight per aiutare i team a selezionare il modello più sicuro.
Questa offerta, sviluppata dopo test rigorosi su vari scenari e set di dati, fornisce un punteggio di rischio completo per fino a 36 LLM open e closed source. Considera diversi parametri di sicurezza, inclusa la capacità del modello di evitare di generare contenuti dannosi o inappropriati e la sua capacità di bloccare malware o prevenire attacchi di injection.
Attualmente, la classifica di Enkrypt indica GPT-4-Turbo di OpenAI come il modello più sicuro, con un punteggio di rischio più basso. Tuttavia, è importante notare che questa classifica potrebbe cambiare nel tempo con l’evoluzione dei modelli. Enkrypt prevede di aggiornare regolarmente la classifica per riflettere tali cambiamenti.