C’è una parte del mondo dell’intelligenza artificiale che raramente vediamo — quella fatta non di interfacce utenti eleganti o demo sorprendenti, ma di scatole metalliche, rack, server e infrastrutture nascoste. È lì che si sta giocando una partita che potrebbe decidere chi rimane protagonista nei prossimi anni, e OpenAI ha deciso di fare un investimento senza precedenti: circa 100 miliardi di dollari nei prossimi cinque anni per affittare server di backup dai provider cloud.
Non è un costo opzionale o un lusso, ma una risposta urgente a un vincolo concreto: la limitata disponibilità di capacità computazionale, che per un’azienda come OpenAI diventa un freno quando la domanda degli utenti cresce e quando i modelli diventano sempre più grandi e complessi. Sarah Friar, CFO dell’azienda, non nasconde che molti progetti vengano ritardati proprio a causa della mancanza di server sufficienti.
Parliamo di server di backup, ma non solo di riserva: OpenAI considera questa infrastruttura come parte integrante della sua strategia. Avere server pronti all’uso serve non solo quando succedono guasti, ma soprattutto per garantire continuità, per evitare colli di bottiglia nei momenti di picco, per permettere l’addestramento sperimentale di nuovi modelli, per rispondere con rapidità a innovazioni che emergono all’improvviso.
In più, questa mole di server non è vista soltanto come spesa, ma come investimento che potrebbe monetizzare: maggiore capacità operativa significa poter servire più utenti, lanciare funzionalità più ambiziose, mantenere un passo competitivo; in sostanza, trasformare la capacità di calcolo in un asset che produce valore.
Le cifre sono impressionanti. Oltre ai 100 miliardi di dolari previsti nei cinque anni per i server di backup, OpenAI ha già stimato un costo complessivo di 350 miliardi di dollari per il noleggio di server cloud entro il 2030. In media, quindi, si parla di circa 85 miliardi l’anno che OpenAI spenderà per affittare server (inclusi i backup) nel prossimo quinquennio.
Questa mole di spesa si riflette anche sul flusso di cassa: OpenAI si aspetta un cash burn significativo entro il 2029, dell’ordine di 115 miliardi di dollari, alimentato non solo dall’affitto dei server ma anche da tutta la crescita operativa che la compagnia prevede nella sua espansione.
Tutto questo non è privo di rischi e sfide. Innanzitutto, logisticamente e tecnicamente, affittare una quantità così grande di server comporta dipendenza da provider cloud esterni (Microsoft Azure, Google Cloud, Oracle e altri), che potrebbero essere anch’essi soggetti a limiti di capacità, vincoli energetici, problemi geopolitici. Se la supply chain del cloud si inceppa, l’intera catena produttiva dell’IA può subire.
C’è poi il tema dell’energia: server grandi richiedono molta elettricità, dissipano calore, necessitano infrastrutture di raffreddamento, sicurezza fisica. La sostenibilità ambientale (e anche i costi energetici) diventeranno fattori sempre più cruciali, non solo per i margini economici, ma per la reputazione, per la regolamentazione. OpenAI ha già anticipato che in futuro potrà costruire proprie strutture, chip proprietari, data center propri come parte di una strategia “full stack” per ridurre dipendenze.
Un’altra sfida è finanziaria: sopravvivere a un enorme afflusso di costi prima che i ricavi crescano abbastanza per sostenerli. OpenAI prevede che il fatturato aumenterà molto nei prossimi anni — da decine di miliardi oggi a possibilità (secondo alcune stime aziendali) molto più grandi intorno al 2030 — ma è una scommessa che richiede che i modelli, i servizi e l’adozione continuino a crescere senza intoppi.
Quella che all’apparenza appare come una notizia tecnica ha implicazioni molto più ampie. Innanzitutto, indica che nella battaglia per l’IA, potenza di calcolo e disponibilità di infrastruttura sono diventate risorse strategiche tanto quanto gli algoritmi o la ricerca. Chi controlla i server, le GPU, l’energia, può dettare i tempi dello sviluppo, la portata delle innovazioni.
Inoltre, questo tipo di investimento fa capire che l’IA non è più solo un settore sperimentale, ma un’industria che richiede ricavi consistenti, pianificazione su scala globale, continui investimenti in infrastruttura, gestione del rischio. Società come OpenAI stanno diventando sempre più simili a società utility o infrastrutturali, dove la manutenzione, la ridondanza, la sicurezza diventano fattori centrali.
C’è anche un messaggio politico e regolatorio implicito: quando un attore privato spende cifre così enormi per accaparrarsi capacità nei data center, ciò che succede con l’energia elettrica, con la supply chain dell’hardware, con la distribuzione geografica dei data center, diventa questione di interesse pubblico. Governi, autorità regolatorie, normative ambientali e fiscali saranno coinvolti, non potranno restare spettatori.