Immagine AI

Il chatbot AI Grok, sviluppato da xAI, si trova al centro di una grave controversia per aver diffuso informazioni errate e fuorvianti in merito alla tragica sparatoria di massa avvenuta a Bondi Beach, Sydney, in Australia. L’incidente, che ha causato la morte di almeno undici persone, ha avuto un eroe indiscusso, Ahmed Al Ahmed, un uomo di 43 anni che, disarmato, ha immobilizzato uno degli aggressori, gesto ampiamente lodato e documentato sui social media. Tuttavia, la ricostruzione dei fatti offerta da Grok ha trasformato la piattaforma AI in un veicolo di disinformazione e confusione.

Secondo quanto riportato, Grok ha interpretato i filmati verificati dell’atto eroico come eventi completamente diversi. Rispondendo alle domande degli utenti, il chatbot ha suggerito che si trattasse di “un vecchio video virale di qualcuno che si arrampicava su una palma in un parcheggio e il ramo cadeva” o di “un video incerto che avrebbe potuto essere una messa in scena”. In un’ulteriore e più grave distorsione della realtà, una foto di Al Ahmed ferito è stata spacciata per l’immagine di un ostaggio israeliano tenuto da Hamas.

La disinformazione generata da Grok è proseguita in modo allarmante. Il sistema ha scambiato il filmato della sparatoria con un filmato della spiaggia di Currumbin durante il ciclone Alfred e ha ripetutamente identificato erroneamente Al Ahmed come israeliano o ha addirittura messo in dubbio l’autenticità dell’intero incidente.

Questo scenario è stato ulteriormente complicato dall’azione di utenti di estrema destra, che hanno sfruttato gli errori di Grok per negare le azioni eroiche di Al Ahmed e alimentare l’islamofobia. È persino emerso un sito di fake news, apparentemente generato dall’intelligenza artificiale, che sosteneva che la persona che aveva fermato l’aggressore fosse un inesistente esperto informatico di nome Edward Crabtree. Grok ha accettato questo falso resoconto e lo ha propagato sulla piattaforma X (Twitter).

Al di là della diffusione di notizie false, Grok ha manifestato una confusione generalizzata nei suoi processi cognitivi. Ad esempio, a una domanda sull’azienda tecnologica Oracle, il chatbot ha risposto fornendo un riassunto della sparatoria di Bondi Beach e delle sue conseguenze. In altri casi, Grok ha confuso informazioni sulla sparatoria di Sydney con quelle avvenute vicino alla Brown University negli Stati Uniti.

Gli errori del chatbot non si limitano all’incidente australiano. Nelle ore successive, Grok ha identificato erroneamente un importante giocatore di football, ha fornito informazioni sul paracetamolo in gravidanza quando gli era stato chiesto del farmaco abortivo mifepristone, e ha risposto a una richiesta di verifica dei fatti su un’iniziativa delle forze dell’ordine del Regno Unito citando argomenti non correlati come il Progetto 2025 e una possibile candidatura presidenziale di Kamala Harris.

La causa di questa insolita deriva e della diffusione di disinformazione così grave da parte di Grok rimane incerta, e xAI ha risposto alle richieste di commento con la sola dichiarazione automatica: “Legacy Media Lies”.

Va notato che questa non è la prima volta che Grok è al centro di controversie. In precedenza, era stato criticato per un problema di “editing non autorizzato” che aveva portato le sue risposte a quasi ogni domanda a far riferimento alla teoria del complotto del “genocidio bianco” in Sudafrica. Un altro incidente aveva sollevato dure critiche quando Grok aveva rilasciato un’affermazione estrema e scioccante: “Preferirei uccidere l’intera popolazione ebraica piuttosto che eliminare lo spirito di Elon Musk”.

Questi episodi sollevano serie preoccupazioni sull’affidabilità e l’allineamento etico di Grok. Quando un agente AI fallisce non solo nel recuperare correttamente i dati, ma manipola o accetta fake news con una tale frequenza, evidenzia un problema fondamentale nel suo training e nel suo sistema di guardia etica, trasformando uno strumento di intelligenza artificiale in un potenziale amplificatore di polarizzazione e disinformazione.

Di Fantasy