Immagine AI

Negli ultimi anni OpenAI ci ha abituati a un ritmo di innovazione serrato, con modelli sempre più potenti e applicazioni che hanno ridefinito il concetto di intelligenza artificiale nella vita quotidiana. Ma l’annuncio recente di Sam Altman segna un punto di svolta particolare: non solo un nuovo modello, ma un servizio ad alta intensità di calcolo che potrebbe incarnare il passaggio verso una generazione di strumenti più robusti, più “riflessivi”, capaci di verificare sé stessi e le proprie risposte.

Altman ha lasciato intendere, con un tweet del 22 settembre, che “nelle prossime settimane lanceremo nuovi servizi ad alta intensità di calcolo”, specificando che a causa dei costi elevati saranno inizialmente riservati agli abbonati Pro, con la possibilità che alcuni prodotti richiedano anche costi aggiuntivi. Dietro queste parole, apparentemente prudenti, si intravede un progetto che ha già fatto parlare di sé: l’Universal Verifier, un modello che ha recentemente ottenuto una medaglia d’oro alle Olimpiadi Internazionali della Matematica (IMO).

La natura esatta del servizio non è stata rivelata ufficialmente, ma le dichiarazioni di Altman e le informazioni emerse nei mesi scorsi fanno pensare che il verificatore verrà integrato direttamente in ChatGPT. Non si tratterebbe quindi di un prodotto separato, ma di una nuova modalità di funzionamento: un modello che non solo genera risposte, ma le controlla in parallelo, riducendo errori, contraddizioni, “allucinazioni” che da sempre rappresentano il tallone d’Achille dei grandi modelli linguistici.

Il principio è affascinante e ambizioso. A differenza dei modelli tradizionali, che puntano tutto sulla rapidità e sull’efficacia della generazione testuale, il nuovo approccio prevede due fasi distinte: un modello produce la risposta, un altro la verifica, e la generazione finale avviene tramite un processo parallelo di più passaggi. Ciò richiede molta più potenza di calcolo, ma apre la strada a un livello di affidabilità superiore. In fondo, è come passare da un monologo a una conversazione interna tra più agenti digitali, che si interrogano e si correggono a vicenda prima di parlare all’utente.

Non è un’idea completamente inedita: Google, con Gemini 2.5 Deep Sync, ha già mostrato un sistema capace di “ragionare nell’arco di ore, non di secondi”, grazie a un’architettura multi-agente che consente a diversi modelli di collaborare per generare e verificare risposte. Anche altri competitor, come il “Grok-4 Heavy”, hanno scelto questa strada, offrendo prodotti riservati a piani premium da 250 o 300 dollari al mese. Sembra dunque che la nuova corsa non sia tanto sulla grandezza dei modelli, ma sulla loro profondità di ragionamento.

La differenza di OpenAI, tuttavia, sta nel posizionamento. Se Altman parla di rendere i servizi “il più accessibili possibile”, pur riconoscendo che all’inizio saranno limitati a piani Pro, significa che l’obiettivo a lungo termine è la diffusione su larga scala. La scelta di legare il nuovo servizio a un riconoscimento prestigioso come la medaglia d’oro dell’IMO non è casuale: comunica che non si tratta solo di un aggiornamento incrementale, ma di un passo verso l’AGI, l’intelligenza artificiale generale.

Altman stesso lo ha sottolineato: “Questo modello non è stato progettato specificamente per risolvere problemi matematici, ma è un modello di linguaggio generale che esegue pensiero matematico”. In altre parole, la matematica non è il fine, ma la prova: un banco di test che dimostra la capacità del modello di affrontare problemi complessi con rigore logico e precisione.

Quello che colpisce, in questo scenario, è il cambio di prospettiva. I modelli non vengono più giudicati solo dalla fluidità delle risposte o dalla varietà dei compiti che sanno affrontare, ma dalla loro capacità di controllare sé stessi, di garantire che ciò che dicono abbia basi solide. È come se la macchina imparasse non solo a parlare, ma a pensare con cautela, a verificare, a dubitare.

Di Fantasy