“ChatGPT è una versione glorificata di Ricerca Google”.
Presupposti infondati, cattivi consigli, informazioni errate: la più grande fonte di problemi su Internet oggi sono le persone che acquistano ciecamente l’hype. ChatGPT , che di recente ha preso d’assalto Internet, sembra rendere molto più facile per le persone aggiungere al caos.
Ormai ChatGPT è sinonimo di risposte esaustive simili a quelle umane a domande, tra cui come redigere un contratto, creare un codice o persino una sceneggiatura di un film. Il chatbot temporaneamente gratuito sta già cambiando il modo in cui le persone cercano informazioni rispondendo a domande complesse. A volte, le capacità di comprensione di ChatGPT ti fanno indovinare se stai effettivamente parlando con un essere umano.
Allora, perché le persone attaccano ChatGPT? Ma, prima di farlo, diamo un’occhiata ad alcuni degli aspetti positivi di questo rivoluzionario chatbot.
La principale tra le caratteristiche uniche di ChatGPT è la memoria . Il bot può ricordare ciò che è stato detto in precedenza nella conversazione e raccontarlo all’utente. Questo di per sé lo distingue da altre soluzioni in linguaggio naturale concorrenti, che stanno ancora risolvendo la memoria man mano che progrediscono in base a query per query.
Sebbene superi alcuni dei problemi che hanno afflitto i chatbot del passato, che includono risposte di odio o razziste, sta anche sollevando domande su come l’utente può distinguere tra il contenuto del bot e l’intervento umano attraverso il linguaggio. Questo perché il testo di ChatGPT è in grado di ottenere la sensazione di una risposta veritiera anche se non si basa su fatti.
Ora, che il pestaggio abbia inizio!
Le risposte sono imprecise
Recentemente, Stack Overflow, il popolare forum di programmazione, ha vietato tutte le risposte create da ChatGPT citando un alto grado di imprecisione nelle risposte del bot. Sebbene abbia chiarito che si trattava di una politica temporanea, ha ribadito che il problema non risiede solo nell’inesattezza delle risposte di ChatGPT, ma più in profondità nel modo in cui il bot esprime le sue risposte.
A causa della natura degli LLM, in particolare GPT-3.5, che è stato utilizzato per creare ChatGPT, non solo può generare frasi grammaticalmente corrette con un tono formale, ma le rende anche autorevoli e energiche.
Stack Overflow ha dichiarato: “[Le risposte di ChatGPT] in genere sembrano buone e le risposte sono molto facili da produrre. Ci sono anche molte persone che provano ChatGPT per creare risposte, senza l’esperienza o la volontà di verificare che la risposta sia corretta prima della pubblicazione.
Fornisce informazioni non verificate
Su Twitter, vari utenti, tra cui il celebre esperto di intelligenza artificiale Andrew Ng, hanno postato sulla vaghezza delle risposte fornite a determinate domande specifiche. In alcuni casi, le persone hanno persino pubblicato risposte errate fornite dal chatbot che potrebbero fuorviare i suoi utenti.
Ci sono stati anche casi in cui gli utenti hanno postato che sebbene il chatbot non risponda a domande controverse o politiche, produce battute politicamente scorrette.
Gary Marcus , professore emerito della New York University, ha condiviso una serie di esempi su Twitter di casi di informazioni errate da parte del chatbot in cui è limitato nella sua capacità di sfruttare i fatti.
L’autore John Warner sostiene che il chatbot inventi informazioni citando un caso in cui gli ha fornito un elenco di articoli che non esistevano.
Affermazioni supportate da false citazioni
Quando il chatbot viene utilizzato per scrivere una notizia di base sui guadagni trimestrali di una major tecnologica, il chatbot produce una replica affidabile dei risultati finanziari dell’azienda, aree in cui ha visto un aumento delle entrate e aree di potenziale crescita. Per farlo sembrare più autentico, integra persino l’articolo con una citazione del CEO dell’azienda.
Questo perché questi modelli linguistici hanno imparato che le notizie sono sempre supportate da una citazione e da dati. Pertanto, anche il chatbot replica questo comportamento.
Nessuna citazione e riferimenti inesistenti
Nonostante una risposta dettagliata che appare credibile e imita una conversazione umana completa di informazioni esaustive, ChatGPT non riesce a rivelare o elencare le sue fonti, sollevando una domanda allarmante di informazioni verificate e pratiche.
Inoltre, quando rende disponibili tali informazioni, fornisce riferimenti inesistenti. Prendi il caso di questo utente che ha affermato che tutti i riferimenti forniti dal chatbot in risposta alla sua domanda di riferimenti che trattavano di proprietà matematiche delle liste non esistevano!
Brillantemente stupido
Gary Marcus nel suo articolo, ” The Road to AI We can Trust” , sottolinea che la conoscenza di GPT riguarda in parte proprietà specifiche delle entità e non è in grado di padroneggiare completamente le relazioni astratte.
Prendi, ad esempio, se chiedi al Chatbot un articolo su un’area specifica (Jayanagar) a Bangalore, scrive a caso di un’associazione assistenziale residente nell’area che è nota per le sue iniziative cittadine. Non entra nella storia del territorio, nelle sue dimensioni o in altri aspetti rilevanti.
Qual è la differenza rispetto a Ricerca Google?
Molte persone oggi chiamano ChatGPT il “Nuovo Google” o “Google Killer”, che in una certa misura è vero, in particolare nel caso di mostrare suggerimenti bizzarri. Google, ad esempio, suggerisce il cancro come risposta a qualsiasi sintomo, anche quando chiedi un mal di stomaco. Ma, nel caso di ChatGPT, non riflette tali suggerimenti ma una disinformazione addolcita. In altre parole, possiamo dire che “ChatGPT è una versione glorificata di Google Search”, solo molto meglio.