Google ha parzialmente limitato l’uso del suo chatbot di intelligenza artificiale (AI) “Bard” in azienda. Ha ripetutamente ammesso che i chatbot non sono perfetti.
Reuters ha riferito, citando fonti a sua conoscenza, che Google ha detto ai suoi dipendenti di non inserire dati aziendali riservati nel suo chatbot. Secondo questo, Google ha anche avvertito i suoi ingegneri di non utilizzare direttamente il codice generato dal bardo.
Google ha fatto lo stesso punto nel suo commento ufficiale. Sulle questioni dei segreti aziendali, ha mostrato una posizione di principio e sui problemi di codifica ha affermato che Bard può dare suggerimenti non richiesti, ma che sono comunque utili ai programmatori.
Google ha sottolineato che mira a essere trasparente sui limiti della tecnologia. Infatti, l’informativa sulla privacy di Google aggiornata prevedeva che “non includere informazioni riservate o sensibili nelle conversazioni con Bard”.
Questa misura è già comune nelle principali aziende di tutto il mondo. Samsung Electronics ha vietato l’uso dell’intelligenza artificiale generativa come ChatGPT dopo aver fatto trapelare segreti interni e si sa anche che Apple e Amazon hanno rafforzato le barriere per l’utilizzo di chatbot interni.
Nel caso di Microsoft, ha rifiutato di fornire una risposta ufficiale, ma secondo gli addetti ai lavori è stato rivelato che, come Google, ha limitato l’uso personale.
Nel frattempo, Google ha ritardato il lancio del servizio di Bard in Europa da questa settimana. Secondo la Commissione irlandese per la protezione dei dati (DPC), Google ha comunicato che avrebbe rilasciato Bard questa settimana, ma il rilascio è stato automaticamente ritardato perché non ha presentato i documenti necessari come una valutazione dell’impatto sulla protezione dei dati.
In risposta, Google ha affermato che stava collaborando con le autorità di regolamentazione, incluso lo svolgimento di colloqui dettagliati con il DPC.