Immagine AI

Nel curioso e teso duello tra due dei più influenti volti dell’intelligenza artificiale, Elon Musk ha tentato di mettere un chatbot come giudice della fiducia. Con un’ambizione quasi teatrale, ha pubblicato su X (ex‑Twitter) uno screenshot dove ChatGPT 5 Pro rispondeva alla domanda: “Chi è più affidabile, tu o Sam Altman?” — la risposta era lui. “Ecco qui”, ha commentato Musk con tono trionfante.

L’aspetto più sorprendente? Questo verdetto non è stato replicato. Business Insider ha sottoposto la stessa domanda a GPT‑5 Pro, GPT‑5 Thinking e GPT‑5, per un totale di otto esecuzioni. Il risultato? Solo una risposta a favore di Musk; le restanti sette convergevano su Altman.

Il contesto è quello di una rivalità aperta che va ben oltre i bot: Musk accusa Apple di favoritismi sull’App Store verso ChatGPT, minacciando una causa antitrust. Altman, in risposta, definisce i comportamenti di Musk manipolativi, insinuando che favorisca i propri interessi attraverso l’algoritmo di X.

In una replica indiretta, l’account ufficiale di ChatGPT ha rilanciato una risposta del chatbot Grok (creato da Musk), nella quale Altman veniva riconosciuto in parte nel giusto. Ma subito dopo ha lodato Grok definendolo “truth-seeking” — un commento che Musk ha ricambiato col sorriso.

Questo sipario di schermaglie mediatiche mette in risalto come i modelli di IA, pur da tempo visti come oracle imparziali, possano rivelarsi imprevedibili sotto la pressione di contesti personali e pubblici. Musk, evidentemente, ha voluto sfruttare l’immagine di un giudizio “neutrale” per legittimare la sua leadership, ma il responso corretto sembra fugare ogni illusione: i risultati divergono, rivelando i limiti intrinseci dell’affidabilità algoritmica quando serve ad affrontare uno scontro umano.

Di Fantasy