L’intelligenza artificiale (IA) ha compiuto passi da gigante negli ultimi anni, rivoluzionando vari settori e offrendo soluzioni innovative in ambiti come la medicina, l’educazione e l’intrattenimento. Tuttavia, nonostante i progressi, emergono ancora sfide significative, in particolare quando si tratta di gestire e citare correttamente le fonti delle informazioni.​

Recenti studi hanno evidenziato che molti chatbot basati su IA faticano a fornire riferimenti accurati alle informazioni che condividono. Un’analisi condotta dal Columbia Journalism Review ha confrontato otto diversi chatbot, tra cui ChatGPT, Perplexity e Grok. I risultati sono stati sorprendenti:​

  • Perplexity: ha commesso errori nel 37% dei casi.​
  • Grok 3: ha mostrato un tasso di errore del 94%.​

Inoltre, è emerso che i chatbot tendevano a fornire risposte imprecise con una “sicurezza allarmante”, utilizzando raramente espressioni come “è possibile” o “potrebbe”. Questo comportamento può ingannare gli utenti, facendoli fidare di informazioni potenzialmente errate.​

Un’altra criticità riguarda la gestione degli URL. Molti chatbot, come Gemini e Grok 3, spesso fornivano link inesistenti o inventati, portando gli utenti a pagine di errore. In alcuni casi, i chatbot citavano articoli ripubblicati su altri siti, come Yahoo News, invece degli originali, complicando ulteriormente la verifica delle informazioni.​

Questi problemi sollevano interrogativi sull’affidabilità dei chatbot come fonti di informazione. La difficoltà nel tracciare le origini delle informazioni può portare alla diffusione di notizie imprecise o addirittura false, minando la fiducia degli utenti nell’IA. Inoltre, l’incapacità di fornire riferimenti accurati limita l’utilità dei chatbot in contesti che richiedono precisione e verificabilità, come la ricerca accademica o l’analisi giornalistica.

Di Fantasy