Il fatidico errore del chatbot Bard di Google ha avuto un impatto disastroso sui mercati, facendo perdere alla società la sbalorditiva cifra di 100 miliardi di dollari in Borsa. Durante un video promozionale, che avrebbe dovuto essere un’occasione per celebrare l’ingresso di Bard nell’arena dell’intelligenza artificiale, il chatbot ha causato una tremenda scossa con una risposta quanto mai fuori luogo riguardo al telescopio James Webb. Questa gaffe ha generato un’onda d’impatto che ha fatto precipitare le azioni del colosso del 9%, causando un danno pesante all’immagine e alla reputazione dell’azienda.
Probabilmente, la maggior parte delle persone non avrebbe potuto rilevare l’errore di Bard, nonostante fosse abbastanza evidente, soprattutto per un’intelligenza artificiale conversazionale addestrata su Internet. L’errore è sfuggito persino al personale di Google incaricato di creare il video promozionale, ma è stato notato da molti esperti e appassionati di astronomia.
Brad ha dichiarato che il telescopio spaziale James Webb sarebbe stato utilizzato per scattare le prime immagini di un pianeta al di fuori del nostro sistema solare, cioè un esopianeta. Questa affermazione è totalmente errata, poiché i primi esopianeti sono stati fotografati con telescopi terrestri molto potenti ben 14 anni prima del lancio del James Webb.
Il chatbot AI di Google, Bard, commette un errore fattuale nella prima demo
L’errore evidenzia il problema più grande dell’utilizzo dei chatbot AI per sostituire i motori di ricerca: inventano cose.
Google si è affrettato a lanciare un concorrente di ChatGPT, ma forse si è affrettato un po’ troppo.
Lunedì, Google ha annunciato il suo chatbot AI Bard , un rivale di ChatGPT di OpenAI che dovrebbe diventare “più ampiamente disponibile al pubblico nelle prossime settimane”. Ma il bot non è partito alla grande, con gli esperti che hanno notato che Bard ha commesso un errore di fatto nella sua primissima demo.
Una GIF condivisa da Google mostra Bard che risponde alla domanda: “Di quali nuove scoperte dal telescopio spaziale James Webb posso parlare a mio figlio di 9 anni?” Bard offre in cambio tre punti elenco, incluso uno che afferma che il telescopio “ha scattato le primissime foto di un pianeta al di fuori del nostro sistema solare”.
Tuttavia, un certo numero di astronomi su Twitter ha sottolineato che questo non è corretto e che la prima immagine di un esopianeta è stata scattata nel 2004, come affermato qui sul sito web della NASA .
“Non per essere un ~ beh, in realtà ~ idiota, e sono sicuro che Bard sarà impressionante, ma per la cronaca: JWST non ha scattato ‘la primissima immagine di un pianeta al di fuori del nostro sistema solare'”, ha twittato l’astrofisico Grant Tremblay .
Anche Bruce Macintosh, direttore degli Osservatori dell’Università della California presso l’UC Santa Cruz, ha sottolineato l’errore. “Parlando come qualcuno che ha immaginato un esopianeta 14 anni prima del lancio di JWST, ti sembra che dovresti trovare un esempio migliore?” ha twittato .
(L’errore e le obiezioni degli esperti sono stati individuati per la prima volta da Reuters e New Scientist .)
Not to be a ~well, actually~ jerk, and I'm sure Bard will be impressive, but for the record: JWST did not take "the very first image of a planet outside our solar system".
— Grant Tremblay (@astrogrant) February 7, 2023
the first image was instead done by Chauvin et al. (2004) with the VLT/NACO using adaptive optics. https://t.co/bSBb5TOeUW pic.twitter.com/KnrZ1SSz7h
La primissima risposta di Bard conteneva un errore di fatto.
In un tweet di follow-up, Tremblay ha aggiunto: “Adoro e apprezzo che una delle aziende più potenti del pianeta stia utilizzando una ricerca JWST per pubblicizzare il proprio LLM. Eccezionale! Ma ChatGPT ecc., Sebbene inquietanti e impressionanti, sono spesso *molto sicuri* sbagliati. Sarà interessante vedere un futuro in cui il controllo automatico degli errori di LLM.
Come osserva Tremblay, un grosso problema per i chatbot AI come ChatGPT e Bard è la loro tendenza a dichiarare con sicurezza informazioni errate come fatti. I sistemi spesso “allucinano”, cioè creano informazioni, perché sono essenzialmente sistemi di completamento automatico.
Invece di interrogare un database di fatti comprovati per rispondere alle domande, vengono addestrati su enormi corpora di testo e analizzano i modelli per determinare quale parola segue la successiva in una determinata frase. In altre parole, sono probabilistici, non deterministici, una caratteristica che ha portato un eminente professore di intelligenza artificiale a etichettarli come “generatori di stronzate”.
Certo, Internet è già pieno di informazioni false e fuorvianti, ma il problema è aggravato dal desiderio di Microsoft e Google di utilizzare questi strumenti come motori di ricerca. Lì, le risposte dei chatbot assumono l’autorità di un’aspirante macchina onnisciente.
Microsoft, che ieri ha presentato il suo nuovo motore di ricerca Bing basato sull’intelligenza artificiale , ha cercato di prevenire questi problemi attribuendo la responsabilità all’utente. “Bing è alimentato dall’intelligenza artificiale, quindi sono possibili sorprese ed errori”, afferma il disclaimer dell’azienda. “Assicurati di controllare i fatti e condividere feedback in modo che possiamo imparare e migliorare!”
Una portavoce di Google, Jane Park, ha rilasciato a The Verge questa dichiarazione: “Questo evidenzia l’importanza di un rigoroso processo di test, qualcosa che stiamo dando il via questa settimana con il nostro programma Trusted Tester. Combineremo il feedback esterno con i nostri test interni per assicurarci che le risposte di Bard soddisfino un livello elevato di qualità, sicurezza e fondatezza nelle informazioni del mondo reale.