Negli ultimi giorni si è acceso un dibattito che va ben oltre il singolo incidente tecnico e tocca uno dei nodi più delicati dell’evoluzione dell’intelligenza artificiale: la qualità delle fonti, la circolazione della conoscenza e il rischio che i modelli inizino a “nutrirsi” l’uno dell’altro, amplificando errori, distorsioni e narrazioni parziali. Al centro della discussione c’è OpenAI, dopo che è emerso che GPT-5.2 ha citato più volte Grokipedia, l’enciclopedia generata dall’intelligenza artificiale legata all’ecosistema di Elon Musk.
La notizia è stata resa pubblica da The Guardian, che ha raccontato come, durante una serie di test, GPT-5.2 abbia fatto riferimento a Grokipedia nove volte rispondendo a oltre una dozzina di domande. Non si trattava di quesiti banali o di cultura generale, ma di temi complessi e relativamente specialistici: la struttura politica dell’Iran, il sistema di remunerazione della milizia Basij, gli asset della Fondazione Mostazafan o la carriera dello storico britannico Richard Evans, noto per il suo confronto diretto con i negazionisti dell’Olocausto. In diversi casi, le risposte fornite apparivano imprecise, parziali o già confutate da fonti consolidate come Wikipedia o da inchieste giornalistiche precedenti.
L’aspetto che ha colpito maggiormente osservatori e ricercatori non è solo l’errore in sé, ma la natura della fonte. Grokipedia, lanciata nell’ottobre dello scorso anno, è un’enciclopedia interamente generata dall’intelligenza artificiale. A differenza di Wikipedia, non consente la modifica diretta delle voci da parte della comunità: gli utenti possono solo richiedere revisioni dei contenuti prodotti dal sistema. Fin dalla sua nascita, il progetto è stato criticato per una presunta inclinazione ideologica, spesso ritenuta vicina alle posizioni politiche del suo fondatore, e per la promozione di narrazioni conservatrici su temi come i diritti civili o l’assalto al Campidoglio degli Stati Uniti del 6 gennaio.
Il caso diventa ancora più interessante se si considera che non riguarda esclusivamente OpenAI. Secondo quanto riportato sempre dal Guardian, anche Claude di Anthropic avrebbe menzionato Grokipedia rispondendo a domande su argomenti come la produzione petrolifera o la birra scozzese. Questo suggerisce che il fenomeno non sia isolato, ma legato a un meccanismo più ampio di raccolta e utilizzo delle fonti online da parte dei modelli linguistici di nuova generazione.
Dal canto suo, OpenAI ha spiegato che la funzione di ricerca sul web dei suoi sistemi è progettata per attingere a una pluralità di fonti pubblicamente disponibili e che vengono utilizzati filtri di sicurezza per ridurre il rischio di collegamenti a contenuti potenzialmente dannosi. L’azienda ha inoltre ribadito di stare lavorando su sistemi di citazione più chiari e su meccanismi di filtraggio delle informazioni meno affidabili. Tuttavia, queste rassicurazioni non hanno placato del tutto le preoccupazioni degli esperti di disinformazione.
Uno dei concetti più discussi in questo contesto è quello del “riferimento circolare”. Quando contenuti generati dall’intelligenza artificiale vengono pubblicati online e successivamente utilizzati come fonti da altri modelli di AI, si crea un circuito chiuso in cui l’informazione non viene più verificata rispetto a una base umana o documentale solida. Il rischio è che errori, bias o vere e proprie falsità vengano ripetuti, rielaborati e infine consolidati come se fossero fatti accertati. Questo fenomeno è strettamente collegato a ciò che alcuni ricercatori definiscono “LLM grooming”, ovvero la possibilità di influenzare deliberatamente i modelli linguistici inondando il web di grandi quantità di contenuti distorti o orientati ideologicamente.
Non si tratta di un timore teorico. In passato sono già emersi casi in cui modelli di intelligenza artificiale hanno riprodotto in modo acritico posizioni politiche o narrative ufficiali. Negli Stati Uniti, ad esempio, il Congresso ha espresso preoccupazione quando Gemini di Google è stato accusato di aver riecheggiato la posizione del governo cinese sui diritti umani nello Xinjiang e sulla gestione della pandemia di COVID-19. Il punto centrale è che, quando un’AI cita una fonte, molti utenti tendono a considerarla automaticamente affidabile, proprio perché mediata da un sistema percepito come autorevole e neutrale.
A sottolineare questo rischio è stata anche Nina Jankovic, ricercatrice nel campo della disinformazione, che ha avvertito come la presenza di fonti non verificate o intenzionalmente fuorvianti nelle risposte di un’AI possa indurre gli utenti a fidarsi di informazioni che non lo meritano. Il problema è aggravato dal fatto che, una volta che la disinformazione entra nei modelli, eliminarla è estremamente difficile. Anche dopo che articoli o citazioni errate vengono rimossi dal web, alcuni sistemi continuano a ripeterli per un certo periodo, come se fossero ormai parte della loro “memoria”.
C’è poi un elemento di ironia che non è sfuggito agli osservatori: il fatto che OpenAI, il cui CEO Sam Altman ha recentemente criticato apertamente i bias di Grok, finisca per citare contenuti provenienti dall’ecosistema Grok stesso. Più che una scelta deliberata, questo episodio sembra indicare che i crawler e i sistemi di raccolta delle fonti non distinguano in modo netto tra contenuti umani e contenuti generati da altre AI, soprattutto quando questi ultimi assumono la forma di siti apparentemente informativi.
Sul fronte opposto, la reazione di xAI, l’azienda di Musk, è stata lapidaria. Alla richiesta di un commento, la risposta si è limitata a una frase secca: “I media ufficiali mentono”. Una dichiarazione che, lungi dal chiarire la questione, contribuisce ad alimentare il clima di polarizzazione attorno al tema della fiducia nelle fonti e nell’informazione.
In prospettiva, molti esperti collegano questi episodi a un rischio ancora più ampio, quello del cosiddetto “collasso del modello”. Se i sistemi di intelligenza artificiale iniziano a citarsi e ricitarsi a vicenda, senza un costante ancoraggio a dati verificati e a fonti umane affidabili, l’ecosistema informativo potrebbe progressivamente degradarsi. In questo scenario, la ripetizione automatica trasformerebbe falsità o interpretazioni parziali in verità accettate, semplicemente perché ripetute abbastanza volte da modelli diversi.
Il caso Grokipedia, quindi, non è solo una curiosità o un incidente di percorso. È un segnale d’allarme su come l’intelligenza artificiale stia già influenzando il ciclo della conoscenza online. La sfida, per OpenAI e per tutti gli altri attori del settore, non è soltanto migliorare l’accuratezza delle risposte, ma costruire meccanismi robusti che distinguano tra informazione verificata, opinione e contenuti generati da altre macchine. In gioco non c’è solo l’affidabilità di un singolo chatbot, ma la qualità dell’informazione digitale nel suo complesso.
