OpenAI ha recentemente fatto un passo importante nel mondo del coding assistito dall’intelligenza artificiale con il lancio di GPT-5-Codex, una versione del modello GPT-5 ottimizzata per le attività di ingegneria software. Questo aggiornamento non è passato inosservato: la richiesta da parte degli utenti è risultata così elevata che ha generato alcuni intoppi iniziali, in particolare relativi alla capacità di calcolo (GPU), alla velocità di risposta, e alla gestione del carico.
GPT-5-Codex è stato annunciato come un’evoluzione di GPT-5, pensata per essere più “agente di ingegneria”: cioè un modello in grado non solo di rispondere a prompt, ma di portare avanti compiti complessi di sviluppo software in modo più autonomo. Include attività come scrittura di codice, refactoring (ristrutturazione di basi di codice esistenti), code review (revisione di codice, individuazione di bug critici prima che il software venga rilasciato) e supporto in ambienti reali di lavoro, tramite terminale, IDE, GitHub, web e persino dispositivi mobili.
Una delle caratteristiche più interessanti è la sua capacità di “pensare” per tempi variabili in base alla complessità del compito: su richieste semplici il modello è rapido, ma se si tratta di compiti che richiedono riflessione, valutazioni multiple o iterazioni (bug fixing, grandi refactoring), può restare attivo per ore. OpenAI segnala che in alcuni test GPT-5-Codex ha operato per più di sette ore su progetti complessi, iterando, correggendo test falliti e alla fine producendo versioni funzionanti.
Prestazioni migliorate anche in termini qualitativi: OpenAI afferma che GPT-5-Codex produce meno commenti inutili nelle revisioni del codice, maggiormente focalizzati su problemi reali (“high-impact comments”) e più affidabili, riducendo “rumore” nelle recensioni.
Tuttavia, come spesso accade con novità molto attese, l’afflusso degli utenti ha superato le stesse previsioni di OpenAI, creando una situazione in cui la capacità computazionale disponibile, in particolare le GPU richieste per gestire il flusso di richieste, non era immediatamente sufficiente. Questo si è tradotto in alcuni rallentamenti — gli utenti segnalano che il modello risponde più lentamente in certe condizioni, o che in determinati momenti è meno reattivo.
OpenAI ha riconosciuto il problema attraverso comunicazioni ufficiali, affermando che sta “aggiungendo GPU” per aumentare la capacità, e che nelle fasi iniziali il modello può funzionare “più lentamente del previsto” finché non verranno scalate le risorse necessarie.