DeepSeek, una startup cinese nel campo dell’intelligenza artificiale, ha recentemente guadagnato attenzione globale con il lancio del suo modello AI avanzato, DeepSeek-R1. Tuttavia, emergono preoccupazioni significative riguardo alla sicurezza dei dati degli utenti e all’affidabilità delle informazioni fornite dal loro chatbot.

Secondo un rapporto di Wiz Research, azienda di sicurezza informatica con sede a New York, una vulnerabilità nel database di DeepSeek ha esposto oltre un milione di righe di dati sensibili su Internet. Questi dati includevano registrazioni delle chat degli utenti, informazioni operative interne, chiavi API e dettagli di backend. La mancanza di autenticazione ha permesso l’accesso non autorizzato, sollevando serie preoccupazioni sulla protezione dei dati personali degli utenti. Wiz Research ha notificato immediatamente DeepSeek, che ha risolto la vulnerabilità entro un’ora. Tuttavia, gli esperti avvertono che la facilità con cui questi dati sono stati trovati suggerisce che altri potrebbero averli già visualizzati o utilizzati in modo improprio.

Parallelamente, NewsGuard, un’organizzazione che valuta l’affidabilità delle fonti di notizie, ha condotto un test sul chatbot di DeepSeek per valutare la precisione delle informazioni fornite. Su 300 prompt utilizzati nel test, inclusi 30 relativi a false affermazioni diffuse online, il chatbot di DeepSeek ha mostrato un’accuratezza del 17%, posizionandosi al decimo posto su undici modelli valutati. Inoltre, il 30% delle volte ha ripetuto false affermazioni, mentre nel 53% dei casi ha fornito risposte vaghe o non utili. Questi risultati sollevano dubbi sulla capacità del modello di distinguere tra informazioni veritiere e disinformazione, evidenziando la necessità di miglioramenti significativi nella formazione e nell’affinamento del modello per garantire risposte più accurate e affidabili.

Le recenti scoperte mettono in luce le sfide che DeepSeek deve affrontare non solo nel garantire la sicurezza dei dati degli utenti, ma anche nell’assicurare l’affidabilità e la precisione delle informazioni fornite dai suoi modelli AI. Mentre l’azienda ha fatto passi da gigante nello sviluppo di modelli AI avanzati, questi incidenti sottolineano l’importanza di implementare misure di sicurezza robuste e di affinare continuamente i modelli per evitare la diffusione di disinformazione. Con l’aumento della base di utenti, è probabile che emergano ulteriori problematiche, rendendo essenziale per DeepSeek affrontare proattivamente queste sfide per mantenere la fiducia degli utenti e garantire l’integrità delle sue operazioni.

Di Fantasy