Google e la privacy sono state a lungo in contrasto tra loro e sembra che il gigante della tecnologia abbia spinto di nuovo. Il suo ultimo chatbot, “Bard”, non è un chatbot qualsiasi, ma potrebbe essere stato addestrato sui tuoi dati Gmail. Google sta estraendo i dati dalle e-mail per addestrare il suo chatbot. Ma non preoccuparti, è tutto in nome del progresso.
Kate Crawford, principale ricercatrice di Microsoft, ha twittato uno screenshot preoccupante delle sue interazioni con Bard, in cui il chatbot affermava che i dati di Gmail erano inclusi nel set di dati su cui è stato addestrato. Questo sarebbe una chiara violazione della politica sulla privacy degli utenti, che afferma chiaramente che la società non utilizzerà i dati di Gmail o Foto per nessun altro scopo.
In risposta, l’account Twitter di Google ha negato l’accusa, affermando che si tratta solo di un primo esperimento basato su LLM e che Bard commetterà errori. Su una nota divertente, la risposta originale cancellata da Google chiamava il chatbot “Barb” e affermava che la società si prende “buona cura della privacy e della sicurezza dei nostri utenti”.
Anche se Google chiama Bard un “esperimento”, è preoccupante che l’azienda stia utilizzando i dati degli utenti senza il loro consenso per addestrare il chatbot. Inoltre, il fatto che Bard stia già generando risposte imprecise e non basate sui fatti solleva domande sul set di dati su cui è stato addestrato.
Google ha avuto una storia di accesso alle informazioni private delle persone e l’uso dei dati degli utenti per addestrare il chatbot Bard potrebbe essere una violazione della sua politica sulla privacy. È importante che l’azienda prenda sul serio la privacy dei suoi utenti e lavori per garantire che i dati degli utenti non vengano utilizzati senza il loro consenso.
Inoltre, come già accaduto per ChatGPT, la trasparenza è una preoccupazione importante quando si tratta di chatbot come Bard. Le risposte del chatbot sollevano domande sul set di dati su cui è stato addestrato e sulla capacità dell’azienda di risolvere i problemi all’interno del modello.
In definitiva, l’uso dei dati degli utenti per addestrare i chatbot non dovrebbe essere tollerato. È importante che le aziende lavorino per garantire che i dati degli utenti siano protetti e che i chatbot siano addestrati in modo etico e trasparente.
Chatbot come Bard e ChatGPT sollevano molte preoccupazioni sulla privacy e sulla trasparenza. Sebbene l’IA generativa stia avanzando rapidamente e i chatbot siano sempre più comuni nella nostra vita quotidiana, è importante che le aziende che li creano considerino la privacy degli utenti e siano trasparenti sulle fonti dei loro dati di addestramento.
Ci si aspetta che le aziende come Google, che hanno accesso a un’enorme quantità di dati personali degli utenti, siano particolarmente attente alla privacy. Tuttavia, come dimostrato dalla recente controversia su Bard, sembra che ci siano ancora problemi con il modo in cui Google gestisce i dati degli utenti.
È importante che le aziende che creano chatbot siano trasparenti sulle fonti dei loro dati di addestramento e sul modo in cui questi dati vengono utilizzati. Inoltre, i chatbot dovrebbero essere programmati in modo che le risposte siano il più trasparenti e basate sui fatti possibile, invece di semplici opinioni o giudizi.
In definitiva, sebbene i chatbot come Bard e ChatGPT possano sembrare divertenti e utili, è importante che le aziende responsabili ne gestiscano l’implementazione in modo etico e trasparente. Solo così possiamo garantire che l’IA generativa continui a evolversi in modo sostenibile e benefico per tutti.