Un recente rapporto di NewsGuard ha rivelato che una rete di siti web con sede a Mosca ha distribuito circa 3,6 milioni di notizie false nel 2024, influenzando significativamente i principali chatbot di intelligenza artificiale (AI). Questa rete, nota come Pravda, è stata istituita nell’aprile 2022, subito dopo l’invasione russa dell’Ucraina, e dispone di notevoli risorse finanziarie.
La rete Pravda non produce direttamente notizie false, ma aggrega contenuti da una vasta gamma di fonti, permettendo una rapida diffusione di disinformazione. Per aumentare la credibilità, le informazioni sono pubblicate in diverse lingue, tra cui inglese, francese, ceco, irlandese e finlandese, mirando a paesi come Canada, Giappone, Taiwan, oltre a regioni in Africa, Medio Oriente, Nord America e Asia.
A causa di questa massiccia diffusione di disinformazione, i principali chatbot AI hanno mostrato una probabilità del 33% di riprodurre informazioni false, come l’affermazione che gli Stati Uniti gestiscono laboratori di armi biologiche in Ucraina. Questa situazione è stata facilitata da strategie di ottimizzazione per i motori di ricerca (SEO), che posizionano questi contenuti in alto nei risultati di ricerca, rendendoli facilmente accessibili agli algoritmi di apprendimento dei chatbot.
Organizzazioni come l’American Sunlight Project hanno avvertito che la rete Pravda potrebbe mirare più a manipolare i modelli di linguaggio AI piuttosto che influenzare direttamente le persone, un fenomeno definito “LLM grooming”. Questo sottolinea la necessità di una selezione rigorosa dei dataset utilizzati per addestrare l’AI e l’implementazione di meccanismi che permettano agli utenti di valutare l’accuratezza delle risposte fornite dai chatbot.