Su social media come Twitter e Reddit, stanno circolando molte risposte errate provenienti dall’intelligenza artificiale generativa di Google, chiamata “Panoramica AI”. Questa situazione sembra peggiorare, e Google sta cercando di rimuovere manualmente i contenuti inesatti.
Secondo The Verge e Business Insider, molti casi di errori nelle risposte generate dall’AI di Google sono stati segnalati sui social media. Alcuni esempi includono affermazioni assurde come l’applicazione della colla sulla pizza o che un presidente degli Stati Uniti fosse musulmano di nome “Barack Hussein Obama”. Altri errori includevano l’affermazione che nessun paese africano inizia con “K” (quando il Kenya chiaramente lo fa) e che 17 presidenti degli Stati Uniti fossero bianchi.
Ci sono stati anche consigli pericolosi per la salute, come mangiare una pietra al giorno o correre con le forbici in mano per migliorare la salute del cuore. Questi contenuti sono stati rimossi da Google dopo essere stati segnalati online. Google ha dichiarato di adottare misure rapide per eliminare le risposte bizzarre, sottolineando che molti degli esempi erano query insolite o manipolate.
Nonostante gli sforzi di Google, il problema sembra espandersi e molti media americani stanno focalizzando l’attenzione sugli errori dell’AI. Business Insider ha persino testato e replicato una risposta errata del giorno precedente.
Google ha già affrontato problemi simili in passato con i suoi annunci sull’intelligenza artificiale generativa. Quando è stato rilasciato “Bard” a maggio dell’anno scorso, il prezzo delle azioni è crollato a causa delle risposte errate durante la demo. Inoltre, il lancio di “Gemini” a dicembre ha rivelato che il video dimostrativo era preregistrato e parzialmente modificato, causando ulteriori polemiche.
Un imprenditore di intelligenza artificiale, che ha richiesto l’anonimato, ha commentato: “Un’azienda che un tempo era nota per essere all’avanguardia ora è famosa per prodotti di così bassa qualità da diventare meme”. Gary Marcus, esperto di intelligenza artificiale e professore emerito di neuroscienze alla New York University, ha sottolineato che mentre raggiungere un’accuratezza dell’80% è relativamente semplice con grandi quantità di dati, superare l’ultima barriera del 20% è il compito più difficile.
Ha anche ricordato che nel 2022 Meta ha prodotto un’intelligenza artificiale chiamata “Galactica”, che è stata disattivata dopo tre giorni a causa delle risposte imprecise e non etiche, come suggerire di mangiare il vetro.