L’episodio che ha visto protagonista OpenAI nelle scorse settimane non è semplicemente un incidente isolato, ma piuttosto un segnale forte di come il mondo dell’intelligenza artificiale sia diventato un’arena dove la concorrenza promozionale, la fretta di “annunciare la next big thing” e la mancanza di controlli indipendenti rischiano di compromettere credibilità e fiducia.
Tutto è iniziato con un post — ormai cancellato — del vicepresidente della società, Kevin Weil, in cui veniva annunciato che GPT-5 aveva risolto «10 problemi di Erdős precedentemente irrisolti» e aveva fatto progressi su altri «11». L’affermazione, di per sé spettacolare, prometteva una svolta nella matematica pura, perché gli “problemi di Erdős” sono noti nell’ambito della teoria dei numeri come congetture o risultati che sono rimasti aperti per decenni. A prima vista, un annuncio del genere suonava come un salto di qualità non solo per quel modello di AI, ma per la ricerca matematica in generale.
Tuttavia, la situazione si è rapidamente complicata. Invece di trovare prove scritte o pubblicazioni scientifiche validanti tali risultati, l’affermazione è stata contestata da matematici esperti. In particolare, il matematico Thomas Bloom, che aveva effettivamente curato la lista dei problemi “aperti” sul suo sito web, ha chiarito che “aperti” non significava “senza alcuna soluzione mai presentata”, bensì “non ho visto un articolo che lo abbia risolto ufficialmente”. In altre parole, ciò che GPT-5 avrebbe “trovato” sembrava essere la scoperta di soluzioni già esistenti nella letteratura, ma ignorate o poco note, piuttosto che nuove dimostrazioni originali.
La risposta dell’industria non si è fatta attendere. Alcuni protagonisti del settore IA hanno espresso sarcasmo o delusione, come Yann LeCun che ha ironicamente commentato “Sono stati issati dai loro stessi GPTard” e Demis Hassabis, CEO di DeepMind, che ha liquidato la faccenda con un laconico “È imbarazzante”.
Alla fine, OpenAI ha rimosso il post e implicitamente corretto il messaggio, ma il danno in termini di fiducia e reputazione appare evidente. Non si tratta solo di un “errore di comunicazione”, ma della messa in luce di una dinamica più profonda: in un contesto dove l’IA ha ottica globale e viene valutata non solo per ciò che “sa fare” ma anche per ciò che “annuncia di poter fare”, la pressione a dichiarare traguardi eclatanti può superare la capacità di verifica indipendente e rigorosa.
Questo caso lascia alcune lezioni e interrogativi: quanto è valida la soglia della verifica scientifica prima di un annuncio pubblico? In quanti contesti “open problems” diventano semplicemente “problemi che non ho io visto risolti” e non “veramente irrisolti”? E infine: quanto pesa l’urgenza competitiva nell’ecosistema tech — la rincorsa ad annunciare “modelli che spostano tutto” — rispetto all’impegno di rimanere fedeli al metodo scientifico, alla trasparenza e alla gestione degli errori?
È bene ricordare che non tutto ciò che è annunciato come rivoluzionario lo è davvero. Nel mondo dell’IA e della ricerca, dove la hype è diventata spesso parte integrante del business, è lecito domandarsi: le grandi promesse servono davvero alla scienza, o soprattutto all’immagine? OpenAI ha probabilmente fatto una scelta nel mezzo: puntare alto, troppo presto, e sottovalutare il contraccolpo di un annuncio che non aveva alle spalle l’evidenza pienamente validata.
In conclusione, la vicenda GPT-5/Erdős non è soltanto una curiosità di matematica o marketing. È uno specchio della fase attuale dell’IA: in bilico tra potenzialità effettive, attese sproporzionate e la necessità di riconquistare credibilità. Per gli osservatori e gli utenti, il messaggio è chiaro: guardare con attenzione non solo ai titoli, ma a quanto dietro quei titoli ci sia davvero controllo, revisione e trasparenza.