L’intelligenza artificiale (IA) ha compiuto passi da gigante negli ultimi anni, rivoluzionando vari settori e offrendo soluzioni innovative in ambiti come la medicina, l’educazione e l’intrattenimento. Tuttavia, nonostante i progressi, emergono ancora sfide significative, in particolare quando si tratta di gestire e citare correttamente le fonti delle informazioni.
Recenti studi hanno evidenziato che molti chatbot basati su IA faticano a fornire riferimenti accurati alle informazioni che condividono. Un’analisi condotta dal Columbia Journalism Review ha confrontato otto diversi chatbot, tra cui ChatGPT, Perplexity e Grok. I risultati sono stati sorprendenti:
- Perplexity: ha commesso errori nel 37% dei casi.
- Grok 3: ha mostrato un tasso di errore del 94%.
Inoltre, è emerso che i chatbot tendevano a fornire risposte imprecise con una “sicurezza allarmante”, utilizzando raramente espressioni come “è possibile” o “potrebbe”. Questo comportamento può ingannare gli utenti, facendoli fidare di informazioni potenzialmente errate.
Un’altra criticità riguarda la gestione degli URL. Molti chatbot, come Gemini e Grok 3, spesso fornivano link inesistenti o inventati, portando gli utenti a pagine di errore. In alcuni casi, i chatbot citavano articoli ripubblicati su altri siti, come Yahoo News, invece degli originali, complicando ulteriormente la verifica delle informazioni.
Questi problemi sollevano interrogativi sull’affidabilità dei chatbot come fonti di informazione. La difficoltà nel tracciare le origini delle informazioni può portare alla diffusione di notizie imprecise o addirittura false, minando la fiducia degli utenti nell’IA. Inoltre, l’incapacità di fornire riferimenti accurati limita l’utilità dei chatbot in contesti che richiedono precisione e verificabilità, come la ricerca accademica o l’analisi giornalistica.