Google nega che Bard sia stato addestrato con i dati di ChatGPT, nonostante le accuse di un ex ricercatore di Google AI pubblicate mercoledì da The Information. L’ex dipendente ha affermato che Google ha utilizzato le risposte di un rivale per addestrare il proprio chatbot, ma Google ha negato categoricamente che Bard utilizzi tali dati. Il portavoce Chris Pappas ha affermato che “Bard non è addestrato su alcun dato da ShareGPT o ChatGPT”, sebbene abbia rifiutato di rispondere alla domanda se Google avesse mai utilizzato i dati di ChatGPT per addestrare Bard in passato. Il rapporto di The Information indica inoltre che un ingegnere di intelligenza artificiale di Google di nome Jacob Devlin ha lasciato l’azienda per unirsi ad OpenAI dopo aver tentato di avvertire Google di non utilizzare i dati di ChatGPT. Sebbene non sia chiaro se Google abbia utilizzato tali dati, è interessante notare che la società sta coinvolgendo la sua divisione DeepMind nella creazione di un nuovo chatbot AI chiamato Gemini, nonostante gli sforzi di DeepMind per ottenere una maggiore indipendenza da Google.
Secondo il rapporto di The Information, Jacob Devlin ha cercato di avvertire Google che l’utilizzo dei dati di ChatGPT violerebbe i termini di servizio di OpenAI e che anche le risposte del chatbot di Google sembrerebbero simili. Una fonte ha riferito alla pubblicazione che Google avrebbe smesso di utilizzare quei dati dopo gli avvertimenti di Devlin.
Tuttavia, Google non ha risposto alla domanda specifica se avesse utilizzato i dati di ChatGPT per addestrare Bard in passato. Il fatto che un ex dipendente abbia espresso preoccupazione per l’uso dei dati di ChatGPT da parte di Google solleva dubbi sulla trasparenza dell’azienda in questo processo.
È importante notare che, nonostante la disputa sui dati di addestramento, Google sta cercando di migliorare i suoi chatbot AI con il lancio di Gemini, una nuova iniziativa che coinvolge la divisione DeepMind. Ciò dimostra che Google continua a investire nello sviluppo di chatbot AI, nonostante le controversie e le preoccupazioni sulla trasparenza nell’addestramento dei modelli di intelligenza artificiale.
Inoltre, la notizia che DeepMind ha perso la battaglia per diventare più indipendente da Google solleva preoccupazioni sulla relazione tra le due divisioni. Molti si chiedono se DeepMind abbia abbastanza autonomia per fornire un’opinione indipendente sui modelli di intelligenza artificiale utilizzati da Google.
La questione dei dati di addestramento è particolarmente importante per i chatbot AI, in quanto le risposte date dai chatbot sono influenzate dai dati di addestramento. Se i dati di addestramento vengono raccolti in modo non etico o non accurato, ciò può influire sulla qualità delle risposte dei chatbot e potenzialmente aumentare il rischio di errori o pregiudizi.
In definitiva, la disputa sui dati di addestramento evidenzia l’importanza della trasparenza e dell’etica nell’addestramento dei modelli di intelligenza artificiale. Le aziende che sviluppano chatbot AI devono essere trasparenti riguardo ai dati di addestramento utilizzati e garantire che i loro modelli siano etici e accurati per prevenire eventuali conseguenze negative.