Opaque Systems, una società specializzata in intelligenza artificiale e analisi, ha annunciato oggi nuove innovazioni per la sua piattaforma di elaborazione riservata. Le nuove offerte pongono una forte enfasi sulla privacy dei dati aziendali durante l’utilizzo di modelli linguistici di grandi dimensioni (LLM).
L’azienda ha comunicato che presenterà queste innovazioni durante il discorso programmatico di Opaque all’inaugurale Confidential Computing Summit, che si terrà il 29 giugno a San Francisco.
Tra le nuove offerte vi è un’intelligenza artificiale generativa ottimizzata per il cloud di calcolo confidenziale di Microsoft Azure, che garantisce la privacy dei dati. Inoltre, è stata sviluppata una piattaforma di analisi zero-trust chiamata Data Clean Room (DCR). Secondo l’azienda, l’intelligenza artificiale generativa sfrutta più livelli di protezione, tra cui l’integrazione di enclave hardware sicure e fortificazioni crittografiche uniche.
“La piattaforma Opaque garantisce che i dati rimangano crittografati end-to-end durante l’addestramento del modello, la messa a punto e l’inferenza, garantendo così la tutela della privacy”, ha dichiarato Jay Harel, vicepresidente del prodotto presso Opaque Systems, in un’intervista a VentureBeat. “La nostra piattaforma protegge i dati a riposo, in transito e durante l’uso per ridurre al minimo la probabilità di violazioni dei dati lungo l’intero ciclo di vita”.
Attraverso queste nuove offerte, Opaque mira a consentire alle organizzazioni di analizzare in modo sicuro i dati riservati, proteggendoli da accessi non autorizzati e preservandone la riservatezza.
Per supportare i casi d’uso riservati dell’IA, la piattaforma ha ampliato le sue capacità di protezione dell’apprendimento automatico e dei modelli di intelligenza artificiale. Questo obiettivo viene raggiunto eseguendo i calcoli su dati crittografati all’interno di ambienti di esecuzione fidati (TEE), che impediscono l’accesso non autorizzato.
Opaque sostiene che le sue Data Clean Room (DCR) basate sul principio zero-trust possono crittografare i dati a riposo, in transito e durante l’utilizzo. Questo approccio garantisce che tutti i dati inviati alla Data Clean Room rimangano riservati durante l’intero processo.
I modelli linguistici di grandi dimensioni (LLM) come ChatGPT si basano su dati pubblici per la formazione. Opaque afferma che il vero potenziale di questi modelli può essere realizzato solo addestrandoli sui dati riservati di un’organizzazione senza il rischio di esposizione.
Opaque consiglia alle aziende di adottare il computing riservato per mitigare tale rischio. Il calcolo riservato è un metodo che protegge i dati durante tutto il processo di addestramento e inferenza del modello. L’azienda afferma che questo metodo può sbloccare le capacità trasformative degli LLM.
“Utilizziamo la tecnologia Confidential Computing per sfruttare l’hardware specializzato messo a disposizione dai fornitori di cloud”, ha affermato Harel di Opaque. “Questa tecnologia migliora la privacy e garantisce che i set di dati siano crittografati end-to-end durante l’intero ciclo di vita del machine learning. Con la piattaforma di Opaque, il modello, il prompt e il contesto rimangono crittografati durante l’addestramento e durante l’esecuzione dell’inferenza”.
Harel ha dichiarato che la mancanza di condivisione e analisi sicure dei dati nelle organizzazioni con più proprietari di dati ha portato a restrizioni sull’accesso ai dati, l’eliminazione dei set di dati, il mascheramento dei campi dati e la totale prevenzione della condivisione dei dati. Ha sottolineato che ci sono tre problemi principali quando si tratta di IA generativa e privacy, soprattutto in termini di LLM:
Query: i fornitori di LLM hanno accesso alle query degli utenti, aumentando il rischio di ottenere informazioni sensibili come codice proprietario o informazioni personali identificabili (PII). Questa preoccupazione per la privacy diventa ancora più intensa con l’aumento dei rischi di hacking.
Modelli di formazione: per migliorare i modelli di intelligenza artificiale, i fornitori accedono e analizzano i propri dati interni di formazione. Tuttavia, la conservazione dei dati di formazione può portare ad un accumulo di informazioni riservate, aumentando la vulnerabilità alle violazioni dei dati.
Problemi di proprietà intellettuale per le organizzazioni con modelli proprietari: l’ottimizzazione dei modelli che utilizzano dati aziendali richiede la concessione di accesso ai dati ai fornitori di LLM o l’implementazione di modelli proprietari all’interno dell’organizzazione. L’aumento dell’accesso a dati privati e sensibili da parte di individui esterni aumenta il rischio di hacking e violazione dei dati.
Opaque ha sviluppato la sua tecnologia di intelligenza artificiale generativa prendendo in considerazione tali problematiche. L’obiettivo è quello di consentire una collaborazione sicura tra organizzazioni e proprietari di dati, garantendo al contempo la conformità alle normative.
Ad esempio, un’azienda può addestrare e ottimizzare un LLM specializzato, mentre un’altra può utilizzarlo per l’inferenza. I dati delle due società rimangono privati, senza accesso consentito ai dati dell’altra.
L’azienda ha sottolineato l’utilizzo di enclave hardware sicure e fortificazioni crittografiche per la sua offerta Zero Trust Data Clean Room (DCR). Afferma che questo approccio al computing riservato fornisce più livelli di protezione contro gli attacchi informatici e le violazioni dei dati.
Operando in un ambiente cloud-native, il sistema viene eseguito all’interno di un’enclave sicura sull’istanza cloud dell’utente, come Azure o GCP. Questa configurazione limita il movimento dei dati, consentendo alle aziende di conservare la propria infrastruttura dati esistente.