Immagine AI

In un’epoca in cui l’intelligenza artificiale è ormai parte integrante delle nostre vite, dalla gestione delle informazioni alla diffusione delle opinioni, emerge con forza la questione della veridicità: quanto ci possiamo fidare di quello che un sistema AI afferma, soprattutto quando l’informazione si propaga rapidamente sui social? Un recente episodio avvenuto a Londra ha messo in risalto questa problematica: la polizia londinese ha smentito una dichiarazione fatta dal chatbot di Elon Musk, “Grok”, che sosteneva falsamente che un video mostrante scontri fra polizia e manifestanti fosse stato girato durante una protesta contro i lockdown da Covid‐19, nel settembre 2020, a Trafalgar Square.

Tutto ha avuto inizio quando un utente di X, la piattaforma social precedentemente nota come Twitter, ha chiesto al bot di identificare il luogo e la data delle immagini di scontri tra polizia e manifestanti. Grok ha risposto indicando che quelle scene provenivano da Trafalgar Square, in una manifestazione contro le restrizioni per il Covid, nel settembre 2020. La risposta è stata ripresa da molti utenti, condivisa, commentata, e si è diffusa come fosse un fatto accertato.

Ma la polizia londinese non ha tardato a intervenire per correggere il tiro. Ha infatti dichiarato che il video non è stato girato nè a Trafalgar Square, né durante una protesta legata ai lockdown. Quelle immagini risalgono invece a un giorno diverso, in un punto diverso: la zona tra Whitehall e Hosegadz Avenue, e non il centro della città. A sostegno della propria correzione, la polizia ha anche pubblicato fotografie che mostrano differenze evidenti rispetto ai riferimenti forniti da Grok.

Questo episodio non è solo un semplice errore, ma un segnale chiaro delle insidie che possono derivare dall’affidarsi completamente a risposte automatiche fornite da sistemi AI. L’errore di Grok ha avuto ampia diffusione grazie al meccanismo virale delle piattaforme social. Una dichiarazione sbagliata, una risposta superficiale, e tutto viene ripreso, condiviso, commentato come se fosse un fatto storico verificato, senza che molti si fermino a controllare le fonti.

Dietro a questo episodio ci sono anche le parole del giornalista Allison Pearson, che aveva sollevato dubbi sulla veridicità della risposta del bot, chiedendosi se non fosse un tentativo di ingenerare confusione. E, sul fronte politico, le reazioni non si sono fatte attendere: accuse di irresponsabilità sono arrivate da più parti, con esponenti che sottolineano la gravità di una disinformazione diffusa da un’intelligenza artificiale di massa, specie se sostenuta da figure con grande influenza pubblica.

L’intera vicenda richiama alla mente il ruolo che le versioni AI dei motori di informazione devono assumere: non solo come fornitori di risposte, ma con la responsabilità—sia tecnica che etica—di verificare, correggere, contestualizzare. Perché quando una risposta sbagliata viene diffusa come vera, le conseguenze possono essere molto più ampie di quanto si immagini: confusione collettiva, danneggiamento della fiducia nelle istituzioni, polarizzazione, manipolazione dell’opinione pubblica.

A Londra la polizia ha dimostrato che è possibile reagire rapidamente, presentando elementi che smontano l’errore: fotografie, comparazioni visive, dati concreti. Ma resta il fatto che il danno è già fatto quando la menzogna ha avuto ampia diffusione.

Quel che serve ora è un dibattito serio sulla trasparenza dei sistemi AI, su come vengono addestrati, su quali fonti basano le loro risposte, e sulla necessità che gli utenti (e le istituzioni che li regolano) mantengano un approccio critico. Perché l’intelligenza artificiale può essere uno strumento potente per il bene, ma può diventare anche vettore di disinformazione se lasciata libera di “inventare” quando non ha certezza.

Di Fantasy