PrivateGPT di PrivateAI mira a proteggere la privacy degli utenti di ChatGPT
Private AI, un’azienda specializzata nella protezione della privacy dei dati, ha presentato oggi PrivateGPT, uno strato di privacy per modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT di OpenAI. Il nuovo strumento è stato sviluppato per nascondere automaticamente informazioni sensibili e dati personali degli utenti nei prompt inviati a ChatGPT.
Il sistema di intelligenza artificiale proprietario di PrivateAI nasconde oltre 50 tipi di dati personali nei prompt degli utenti prima che vengano inviati a ChatGPT. I dati vengono sostituiti con segnaposto per permettere agli utenti di interagire con l’LLM senza rivelare informazioni sensibili ad OpenAI.
Questo annuncio arriva mentre la preoccupazione per la protezione dei dati di OpenAI aumenta, con l’Italia che ha temporaneamente vietato ChatGPT per questioni di privacy e il commissario federale per la privacy del Canada che ha avviato un’indagine su OpenAI dopo aver ricevuto un reclamo riguardante la “raccolta, uso e divulgazione di informazioni personali senza consenso”.
Secondo Patricia Thaine, co-fondatrice e CEO di Private AI, l’IA generativa può avere un ruolo all’interno delle organizzazioni e della società solo se ci sono strumenti adeguati per renderla sicura. Thaine afferma che ChatGPT deve rispettare le leggi sulla protezione dei dati come GDPR, HIPAA, PCI DSS o CPPA e che condividendo informazioni personali con terze parti, le organizzazioni perdono il controllo su come tali dati vengono archiviati e utilizzati, esponendosi a potenziali violazioni della conformità.
PrivateAI non è l’unica azienda a lavorare su soluzioni per migliorare la protezione dei dati di OpenAI. A marzo, Cado Security, un fornitore di sicurezza cloud, ha annunciato il lancio di Masked-AI, uno strumento open source per nascondere i dati sensibili inviati a GPT-4.
Come PrivateGPT, anche Masked-AI nasconde dati sensibili e li sostituisce con segnaposto prima di inviare la richiesta all’API di OpenAI. Gli sforzi congiunti di PrivateAI e Cado Security per migliorare la privacy su LLM consolidati mostrano l’importanza delle tecniche di anonimizzazione dei dati per le organizzazioni che vogliono utilizzare soluzioni come ChatGPT minimizzando la loro esposizione a terze parti.