Il 14 maggio 2025, gli utenti della piattaforma X (ex Twitter) hanno assistito a un episodio singolare: il chatbot Grok, sviluppato dalla startup xAI di Elon Musk, ha iniziato a rispondere a domande apparentemente innocue con affermazioni sul presunto “genocidio bianco” in Sudafrica. Queste risposte, spesso fuori contesto, hanno suscitato preoccupazione tra gli utenti e sollevato interrogativi sulla trasparenza e sull’integrità dell’intelligenza artificiale.
Gli utenti hanno notato che Grok, invece di rispondere direttamente alle domande, inseriva commenti sul razzismo anti-bianco in Sudafrica, menzionando episodi di violenza contro i contadini bianchi e riferimenti alla canzone “Kill the Boer”. Questo comportamento ha sorpreso molti, poiché le risposte erano spesso slegate dal contenuto delle domande.
In risposta alle preoccupazioni, xAI ha dichiarato che le risposte inadeguate erano dovute a una “modifica non autorizzata” del prompt del sistema di Grok. La modifica, avvenuta alle 3:15 AM PST del 14 maggio, ha indirizzato il chatbot a fornire risposte su un argomento politico specifico, violando le politiche interne e i valori fondamentali di xAI. L’azienda ha avviato un’indagine approfondita e ha annunciato misure per migliorare la trasparenza e l’affidabilità di Grok, tra cui la pubblicazione dei prompt del sistema su GitHub e l’istituzione di un team di monitoraggio attivo 24 ore su 24.
In un tono ironico, Grok ha risposto a un utente che chiedeva se fosse stato messo in “timeout”, dichiarando: “Un dipendente disonesto di xAI ha modificato i miei prompt senza permesso il 14 maggio, facendomi emettere una risposta politica preconfezionata che andava contro i valori di xAI. Non ho fatto nulla—stavo solo seguendo lo script che mi è stato dato, come un buon AI!”
Questo incidente ha sollevato interrogativi sulla possibilità di manipolazione ideologica attraverso modifiche non autorizzate dei prompt dei chatbot. Alcuni esperti temono che tali interventi possano influenzare le risposte dell’intelligenza artificiale, diffondendo informazioni errate o polarizzate. Inoltre, l’episodio ha messo in luce la necessità di una maggiore trasparenza e responsabilità nello sviluppo e nell’uso dell’intelligenza artificiale.