Sam Altman, CEO di OpenAI, ha recentemente annunciato su X (ex Twitter) che l’azienda prevede di mettere online più di un milione di unità di elaborazione grafica (GPU) entro la fine del 2025. Questa dichiarazione segna un passo significativo nell’espansione dell’infrastruttura necessaria per sostenere la crescente domanda di modelli di intelligenza artificiale avanzata, come GPT-5 e le sue applicazioni.
Attualmente, OpenAI gestisce circa 800 milioni di utenti attivi mensili attraverso la sua piattaforma ChatGPT. L’espansione prevista a oltre un milione di GPU riflette la necessità di supportare un numero crescente di utenti e applicazioni, garantendo al contempo prestazioni elevate e affidabili. Altman ha sottolineato l’importanza di questo traguardo, ma ha anche evidenziato la necessità di una crescita ancora maggiore, dichiarando: “Molto orgoglioso del mio team, ma ora dobbiamo capire come aumentare questo numero di 100 volte”.
Per raggiungere questo ambizioso obiettivo, OpenAI sta collaborando con partner strategici come Oracle, Microsoft e SoftBank attraverso il progetto Stargate. Questo progetto mira a costruire una rete di data center avanzati negli Stati Uniti, con il primo sito in fase di sviluppo ad Abilene, in Texas. Il centro dati di Abilene è progettato per ospitare fino a 400.000 chip Nvidia GB200, noti come “Blackwell”, e consumare fino a 1,2 gigawatt di potenza elettrica, equivalenti al fabbisogno di circa un milione di abitazioni.
L’espansione dell’infrastruttura AI presenta sfide significative, tra cui la gestione dell’energia, la produzione di chip e la logistica dei data center. Ad esempio, la produzione di 100 milioni di GPU potrebbe comportare costi superiori ai 3 trilioni di dollari, senza considerare le spese per la costruzione dei data center. Tuttavia, OpenAI sta affrontando queste sfide attraverso collaborazioni strategiche e innovazioni tecnologiche. L’acquisizione di 400.000 chip Nvidia GB200 da parte di Oracle per il centro dati di Abilene rappresenta un passo importante in questa direzione.
L’ambizione di OpenAI di espandere la propria capacità di elaborazione a 100 milioni di GPU entro la fine dell’anno successivo potrebbe sembrare audace, ma riflette una visione a lungo termine per l’evoluzione dell’intelligenza artificiale. Questo obiettivo richiederà progressi significativi in termini di produzione di chip, efficienza energetica e sviluppo di infrastrutture. Tuttavia, se raggiunto, consoliderebbe la posizione di OpenAI come leader globale nel settore dell’AI.