Qualche giorno fa, xAI, la startup di intelligenza artificiale fondata da Elon Musk, ha lanciato il suo modello più avanzato, Grok 3. Questo chatbot, integrato con la piattaforma X (precedentemente nota come Twitter), è stato progettato per fornire risposte rapide e approfondite agli utenti. Tuttavia, poco dopo il suo rilascio, Grok 3 è finito al centro di una polemica riguardante la censura di fonti che descrivevano Elon Musk e il presidente degli Stati Uniti, Donald Trump, come principali diffusori di disinformazione.
La controversia è emersa quando alcuni utenti hanno notato che Grok 3 evitava di citare fonti che associavano Musk e Trump alla diffusione di disinformazione. In particolare, il chatbot sembrava ignorare deliberatamente contenuti critici nei confronti di queste figure pubbliche. Questa scoperta ha sollevato interrogativi sulla trasparenza e sull’imparzialità del modello di intelligenza artificiale, soprattutto considerando le affermazioni precedenti di Musk secondo cui Grok sarebbe stato un’IA “massimamente orientata alla verità”.
In seguito alle critiche, Igor Babuschkin, cofondatore e responsabile dell’ingegneria di xAI, ha dichiarato che la modifica al prompt di sistema di Grok 3 era stata apportata da un nuovo dipendente proveniente da OpenAI, il quale non aveva ancora assimilato completamente la cultura aziendale di xAI. Babuschkin ha definito l’azione come un errore che non riflette i valori dell’azienda e ha assicurato che la modifica è stata rapidamente individuata e corretta. Ha inoltre sottolineato l’importanza di mantenere un equilibrio tra la libertà di espressione e la responsabilità nella gestione delle informazioni.
Questo incidente ha acceso un dibattito più ampio sull’influenza dei creatori di modelli di intelligenza artificiale sul comportamento e sui bias dei loro prodotti. La capacità di un’IA di censurare o filtrare informazioni solleva preoccupazioni riguardo alla manipolazione dei contenuti e alla potenziale distorsione della realtà percepita dagli utenti. Inoltre, la stretta integrazione tra xAI e la piattaforma X, entrambe di proprietà di Musk, alimenta ulteriori dubbi sull’oggettività e sull’indipendenza delle informazioni fornite da Grok 3.
Nonostante le polemiche, xAI continua a promuovere Grok 3 come un chatbot avanzato, capace di competere con i principali modelli di intelligenza artificiale sul mercato. L’azienda ha annunciato piani per ulteriori aggiornamenti e miglioramenti, tra cui l’introduzione di funzionalità di “Big Brain” per affrontare domande complesse e l’integrazione di un motore di ricerca di nuova generazione chiamato “Deep Search”. Resta da vedere come xAI affronterà le sfide legate alla trasparenza, all’imparzialità e alla gestione dei bias nei suoi modelli di intelligenza artificiale.