CultureAI, un’importante piattaforma di sicurezza, ha annunciato una nuova tecnologia di intelligenza artificiale chiamata GenAI. Questa tecnologia aiuterà le aziende a proteggere i loro dati sensibili dall’uso incontrollato di strumenti di intelligenza artificiale generativa da parte dei dipendenti.
Molti dipendenti stanno usando strumenti GenAI come ChatGPT e Bard, ma l’uso non regolamentato di questi strumenti può comportare rischi per la sicurezza delle aziende. CultureAI offre ora un modo per monitorare come i dipendenti utilizzano questi strumenti in tempo reale, identificando i casi in cui vengono condivisi dati sensibili. Questo aiuta a ridurre al minimo il rischio di perdita di informazioni importanti.
La soluzione di CultureAI segnala un rischio solo quando i dati sensibili vengono copiati in strumenti GenAI. Può anche monitorare se i dipendenti utilizzano questi strumenti con le credenziali aziendali. Inoltre, utilizza un sistema di rilevamento di pattern per individuare sequenze di caratteri o parole che indicano la divulgazione di informazioni riservate.
Le aziende possono personalizzare questa soluzione in base alle loro esigenze e determinare quali informazioni sono più sensibili. CultureAI offre un livello di preoccupazione (alto, medio o basso) per valutare i rischi associati a determinate informazioni.