Immagine AI

Sam Altman non è mai stato timido nel comunicare le visioni futuriste che guidano OpenAI, e l’ultima dichiarazione conferma quanto l’azienda stia puntando tutto sull’espansione massiccia dell’infrastruttura computazionale. Nel suo blog, Altman ha spiegato che OpenAI aspira a costruire una “fabbrica” in grado di generare ogni settimana un gigawatt di nuova infrastruttura AI, un traguardo imponente che parla di scala, di investimento e di scommessa sul ruolo centrale che il computing occuperà nei prossimi anni.

Questa dichiarazione arriva in concomitanza con lo svelamento di nuovi piani e collaborazioni: OpenAI ha annunciato cinque nuovi data center statunitensi nell’ambito del cosiddetto Progetto Stargate, che già ora porta la capacità pianificata quasi a 7 gigawatt, con ambizioni di spingersi fino ai 10 gigawatt entro la fine del 2025. Ciò significa che l’azienda non sta solo teorizzando grandi obiettivi, ma stava già predisponendo progetti concreti, in collaborazione con attori chiave come Oracle, SoftBank, Microsoft e NVIDIA.

Nel suo post, Altman ha riconosciuto che trasformare questa visione in realtà sarà “estremamente difficile” e richiederà anni. Eppure, la promessa è chiara: con 10 gigawatt di potenza computazionale, l’IA potrà aspirare a risolvere problemi che oggi appaiono titanici, come trovare terapia per malattie complesse o offrire tutoraggio personalizzato agli studenti su scala globale.

Il Progetto Stargate appare come il fulcro operazionale di questa corsa: la partnership con Oracle promette 4,5 gigawatt di capacità nei prossimi cinque anni, e la collaborazione con NVIDIA comprende un’intesa per investimenti fino a 100 miliardi di dollari — vincolati al deploy di potenza aggiuntiva. (Fonte: Analytics India Magazine) È rilevante che OpenAI preveda di inaugurare il primo gigawatt operativo nella seconda metà del 2026, basandosi sulla piattaforma Vera Rubin di NVIDIA.

Dietro questi numeri si intravede un cambio di paradigma: non più solo algoritmi, modelli e dataset, ma una corsa senza precedenti verso le infrastrutture — verso la potenza pura del calcolo, scalabile, distribuita e continua. In questo scenario, OpenAI non compete più solo con altri sviluppatori di modelli generativi, ma con chi può garantire l’energia, la distribuzione e la capacità di espandersi rapidamente.

Ma non è una sfida priva di insidie. Mantenere il passo con l’espansione infrastrutturale significa affrontare costi enormi, complessità logistiche, problemi energetici e limiti fisici. Ogni data center richiede raffreddamento, alimentazione stabile, connessione ad alta capacità, manutenzione continua — e tutto questo in un contesto dove la domanda di energia e le questioni ambientali sono già sotto pressione.

C’è poi la questione del ritorno: l’infrastruttura da sola non basta se non è accompagnata da modelli che ne sfruttino il potenziale in modo efficiente e unico. L’IA ha bisogno non solo di potenza, ma anche di idee, di applicazioni concrete, di casi d’uso che giustifichino investimenti tanto colossali.

Eppure, al di là delle difficoltà, il messaggio che emerge è chiaro: OpenAI intende essere più di un creatore di modelli: vuole assumere il ruolo di architetto dell’infrastruttura AI a scala globale. Vuole possedere la “fabbrica” che alimenta il futuro dell’intelligenza artificiale. Ed è una dichiarazione che, nei prossimi anni, promette di cambiare molte carte in tavola nel panorama tecnologico.

Di Fantasy