L’ascesa degli assistenti virtuali basati sull’Intelligenza Artificiale ha ridefinito il modo in cui milioni di persone accedono all’informazione quotidiana. Questi strumenti, rapidi e apparentemente onniscienti, sono diventati un punto di riferimento primario per orientarsi nel complesso flusso delle notizie. Tuttavia, uno studio congiunto condotto da importanti media pubblici europei, tra cui la RAI, la BBC e l’EBU (European Broadcasting Union), ha sollevato un campanello d’allarme preoccupante, rivelando che l’affidabilità di queste fonti digitali è tutt’altro che garantita. I risultati della ricerca gettano un’ombra sulla presunta oggettività dell’AI, dimostrando che quasi la metà delle risposte fornite dagli assistenti virtuali contengono distorsioni, inesattezze o vere e proprie falsità quando si tratta di fatti di attualità.
La ricerca, focalizzata sull’integrità delle notizie (News Integrity), ha messo alla prova i più diffusi LLM (Large Language Models) che alimentano gli assistenti virtuali di aziende tecnologiche di spicco. La metodologia si è concentrata sull’analisi delle risposte fornite a domande dirette su eventi di stretta attualità. Ciò che è emerso è un quadro inquietante: in media, il 40% delle risposte generate presenta problemi di accuratezza. Questo significa che, nel tentativo di fornire una sintesi veloce o un resoconto immediato, i modelli linguistici omettono dettagli cruciali, ne travisano il significato o, in alcuni casi, producono vere e proprie allucinazioni – termine con cui si indicano le informazioni errate o inventate generate dall’AI.
La criticità di questo dato risiede nella rapidità con cui queste informazioni vengono elaborate e consumate. L’utente medio tende a fidarsi della sintesi offerta dall’AI, senza procedere alla verifica delle fonti originali. Se la fonte primaria è già compromessa da inesattezze, la catena di disinformazione si propaga con facilità e velocità inedite, erodendo la fiducia nel discorso pubblico.
Lo studio ha identificato diverse tipologie di manipolazione o fallimento informativo messe in atto dagli assistenti virtuali. Oltre alla citata “allucinazione”, si è osservato un fenomeno di “misattribution”, ovvero l’attribuzione di affermazioni o fatti a persone o organizzazioni che in realtà non li hanno mai pronunciati o compiuti. Inoltre, si verifica spesso una omissione selettiva di elementi di contesto o di punti di vista che sono essenziali per una comprensione equilibrata della notizia.
Un ulteriore problema cruciale riguarda la trasparenza. Non solo gli assistenti faticano a identificare correttamente le fonti primarie delle loro informazioni, ma spesso si dimostrano incapaci di collegare in modo chiaro le loro risposte a reportage giornalistici verificabili. Questa opacità rende quasi impossibile per l’utente finale risalire all’origine dell’informazione e verificarne l’attendibilità, intrappolando il consumatore in un circolo vizioso di informazioni non validate e auto-referenziate.
Di fronte a queste evidenze, le emittenti pubbliche coinvolte nella ricerca hanno lanciato un appello urgente all’industria tecnologica. La richiesta principale è quella di sviluppare misure di sicurezza più robuste e di collaborare attivamente con le organizzazioni giornalistiche per garantire che i modelli linguistici vengano addestrati su dati verificati e di alta qualità.
In particolare, è stata sottolineata l’importanza di due fronti: il primo è l’attribuzione chiara e verificabile delle fonti di notizie, affinché gli assistenti non siano solo in grado di rispondere, ma anche di indicare con precisione chi ha riportato un dato fatto. Il secondo fronte è l’implementazione di filtraggi algoritmici che riducano drasticamente l’incidenza di bias, travisamenti e allucinazioni.
Lo studio congiunto RAI-EBU-BBC si configura, dunque, non solo come una diagnosi della crisi di fiducia nell’informazione veicolata dall’AI, ma come un invito all’azione per i big del tech. L’obiettivo ultimo è assicurare che l’Intelligenza Artificiale non diventi uno strumento di frammentazione della verità, ma un veicolo trasparente e affidabile per l’accesso a un giornalismo di qualità. La sfida è trasformare la velocità dell’AI nella sua precisione.