Immagine AI

Nel mondo dell’intelligenza artificiale, i modelli che attirano l’attenzione — GPT, Gemini, Claude, e così via — sono spesso le parti visibili, gli strumenti con cui interagiamo. Ma dietro di essi c’è un’infrastruttura massiccia, fatta di data center, GPU, reti ad alta capacità, alimentazione elettrica, raffreddamento — insomma, l’enorme “fabbrica del calcolo” che consente a questi modelli di esistere e operare. Ed è proprio a quella fabbrica che OpenAI sta ora investendo con forza, rafforzando i suoi legami con CoreWeave tramite un nuovo, enorme contratto da 6,5 miliardi di dollari.

Già in marzo e in maggio del 2025 OpenAI e CoreWeave avevano stretto accordi importanti: 11,9 miliardi e 4 miliardi rispettivamente. Con questo nuovo impegno, il valore complessivo della collaborazione sale a circa 22,4 miliardi di dollari.

Perché un ulteriore accordo e perché proprio ora? La ragione di questo ulteriore investimento non è solo “espansione per espandere”, ma una risposta necessaria alla domanda crescente di potenza di calcolo. OpenAI sta portando avanti Stargate, un progetto infrastrutturale ambizioso che punta a costruire, oltre ai suoi data center propri, una rete capillare di capacità di addestramento per modelli all’avanguardia.

In altre parole: man mano che i modelli diventano più grandi, più complessi e più “affamati” di dati e parametri, OpenAI deve assicurarsi che l’infrastruttura dietro non diventi il collo di bottiglia. Il nuovo accordo con CoreWeave risponde all’urgenza di mantenere la capacità di addestrare modelli su larga scala con tempi ragionevoli.

CoreWeave è un operatore di cloud specializzato nell’infrastruttura GPU-centric: ha costruito una reputazione come “hyperscaler AI” incentrato sull’ottimizzazione delle risorse per carichi di lavoro intensi, con focus su prestazioni, latenza e costi.

Questa partnership non è una collaborazione estemporanea, ma un investimento pluriennale. CoreWeave afferma che l’accordo “supporterà l’addestramento dei modelli di nuova generazione più avanzati” di OpenAI, posizionandosi come partner chiave dell’infrastruttura centrale dell’azienda.

OpenAI non sta puntando soltanto su accordi esterni: il suo piano Stargate prevede la costruzione di data center proprietari e la collaborazione con grandi attori come Oracle e SoftBank. Con l’ultima espansione, OpenAI e i suoi partner hanno annunciato cinque nuovi siti di data center negli Stati Uniti, portando la capacità pianificata del progetto vicino a 7 gigawatt e un investimento ormai oltre i 400 miliardi di dollari.

Questo nuovo accordo con CoreWeave fornisce a OpenAI un’ulteriore “leva” infrastrutturale: non solo investire sui propri centri, ma anche garantirsi risorse esterne scalabili. In un mondo in cui i chip, l’energia, i contratti per l’elettricità, la connessione, i datacenter stessi diventano elementi critici, avere un ecosistema più diversificato è essenziale per ridurre rischi e colli di bottiglia.

Inoltre, la tensione (giusta) tra “possedere” e “affittare” infrastrutture si fa sentire: per carichi variabili o picchi di attività, è utile poter attingere a partner come CoreWeave senza dover costruire ogni ingranaggio da sé. L’evoluzione sarà probabilmente ibrida: alcuni componenti interni, altri in outsourcing.

Tuttavia, questo tipo di accordo così “disruptive” porta con sé sfide reali. Prima di tutto, la fornitura di energia: data center di questa scala consumano enormi quantità di elettricità. Alcune regioni potrebbero non essere attrezzate a gestire tali carichi, in termini di distribuzione e prezzi. Alcuni attori esterni hanno già avanzato dubbi su come garantire l’alimentazione senza far ripercuotere costi eccessivi sull’operazione.

Un altro aspetto è la dipendenza dall’hardware. Se CoreWeave è costruito su GPU NVIDIA, per esempio, qualsiasi strozzatura nella catena di produzione dei chip, cambi di politica commerciale o vincoli normativi potrebbero avere un effetto significativo.

Poi c’è la sostenibilità del debito e dei costi operativi. Questi contratti miliardari richiedono ritorni e impegni precisi. Se un modello richiede più risorse del previsto, o se la domanda cala, si rischia che il “peso infrastrutturale” diventi un fardello.

Infine, la complessità gestionale: coordinare più partner infrastrutturali, sincronizzare modelli di addestramento, gestire reti, sicurezza, latenza distribuita, coerenza dei dati, sincronizzazione tra modelli interni ed esterni — tutto questo richiede un controllo tecnico elevato e una governance robusta.

Con questo accordo, OpenAI compie un passo deciso per consolidarsi non solo come creatrice di modelli, ma come “fabbrica dell’AI a scala industriale”. Vuole giocare su più tavoli: ricerca, modelli, infrastruttura, hardware, servizi.

Se riuscisse, potrebbe cambiare il paradigma dell’AI moderna: non più aziende che dipendono da grandi cloud generici, ma operatori che possiedono, comandano o accordano capacità per se stessi. In quell’orizzonte, chi controlla l’hardware e l’infrastruttura avrà un vantaggio strategico enorme.

Ma l’impresa non è facile: bisogna bilanciare innovazione e pragmatismo, rischi e ritorni, investimenti e flessibilità. OpenAI con questo passo scommette che l’AI del futuro non sarà guidata solo da modelli eleganti, ma da chi saprà costruire il “calcolo” dietro quei modelli. Un’avventura titanica, che già oggi sta cambiando il modo di concepire l’AI su scala globale.

Di Fantasy