Immagina un ecosistema digitale dove l’IA consulta, sintetizza e cita… un’altra IA. È quanto emerge da un’indagine scrupolosa che ha scoperto: circa il 10 % delle fonti presentate nei risultati “AI Overview” di Google proviene da contenuti generati da intelligenza artificiale stessa. È un dato apparentemente tecnico, ma carico di implicazioni che sollevano domande profonde su credibilità, originalità e affidabilità dell’informazione.

Google ha introdotto la funzionalità AI Overview (o AIO), quella sezione in cima ai risultati di ricerca che sintetizza rapidamente la risposta a una domanda, attingendo da varie fonti online. Il problema? Una fonte su dieci che compare in questa sintesi risulta non scritta da una persona, bensì generata da un altro modello AI. Un po’ come un eco che risponde a un altro eco: il rischio? La diffusione di idee riciclate, riformulate, ma privi di un fondamento fermo.

Questo “dialogo tra IA” genera alcune criticità:

  • Affidabilità indebolita: senza un autore umano riconosciuto, diventa più difficile valutare la qualità, la verifica dei fatti o la reputazione della fonte.
  • Effetto amplificazione: un errore o un bias in una risposta AI può propagarsi in nuovi contenuti, creando un circolo vizioso.
  • Perdita di originalità: se l’IA s’ispira maggiormente a sé stessa, potremmo assistere a una stagnazione creativa, con idee sempre più autoreferenziali.

Se da un lato i contenuti citati provengono spesso da fonti alte in classifica—spesso quelle in cima ai risultati di Google—dall’altro lo studio mette in luce un ulteriore paradosso: persino contenuti generati da IA, spesso diffusi rapidamente, finiscono per occupare posizioni di rilievo e influenzare altri sistemi AI.

Il 10 % di citazioni di IA nel Google AI Overview rappresenta un campanello d’allarme sullo stato attuale delle informazioni automatiche online. È un promemoria che, dietro ogni widget brillante o risposta sintetica, c’è bisogno di rigore, autenticità e un tocco umano.

Di Fantasy