Quando leggiamo che OpenAI ha stretto un accordo pluriennale con Broadcom per sviluppare 10 gigawatt (GW) di chip AI personalizzati, possiamo pensare che non si tratti semplicemente di una partnership hardware: è piuttosto un manifesto strategico, firma e prologo di una trasformazione profonda nel modo in cui le infrastrutture dell’intelligenza artificiale vengono concepite, costruite e scalate.
L’annuncio è arrivato il 13 ottobre 2025, in contemporanea con una pubblicazione ufficiale sul sito di OpenAI che descrive la collaborazione tra le due aziende per co-sviluppare acceleratori e sistemi di rete avanzati. A differenza degli accordi passati, qui il modello è “OpenAI disegna, Broadcom costruisce e distribuisce”, con OpenAI che incorpora nei chip le lezioni derivate dall’allenamento dei suoi modelli più avanzati.
Se guardiamo al contesto, questo passo non è isolato: OpenAI ha già siglato accordi per 10 GW con NVIDIA e 6 GW con AMD, e ha altresì stipulato un contratto quinquennale per infrastrutture con Oracle.
Con l’integrazione di Broadcom, la capacità prevista sale complessivamente a circa 26 GW — una cifra che si può paragonare alla produzione energetica di 26 centrali nucleari.
Ora, 10 GW di chip AI non sono un’inezia: secondo stime citate da vari media, per costruire tale capacità basterebbero decine di miliardi di dollari solo per i chip — senza contare gli investimenti necessari per le infrastrutture di data center che li ospiteranno.
OpenAI, tuttavia, prevede che quando la sua infrastruttura crescerà fino a 250 GW entro il 2033, serviranno investimenti nell’ordine dei 12,5 trilioni di dollari. Questa mossa porta con sé diverse implicazioni strategiche. Innanzitutto, riduce la dipendenza da fornitori esterni — in particolare NVIDIA — per quanto riguarda componenti fondamentali dell’IA. Progettare internamente i chip consente a OpenAI di ottimizzare hardware e modelli in simbiosi, inserendo le proprie scoperte nei circuiti stessi, e potenzialmente guadagnando maggiore efficienza, latenza inferiore o consumo più contenuto.
Inoltre, la scelta di impiegare la tecnologia Ethernet di Broadcom come backbone della rete interna dei rack di acceleratori suggerisce una visione di scalabilità “orizzontale”: ogni unità sarà connessa con capacità molto elevate, consentendo un’espansione modulare del sistema. Gli acceleratori, le memorie e le commutazioni saranno integrate in un unico disegno di sistema — non solo GPU o chip “a sé stanti”, ma un ecosistema coerente.
Un’altra nota interessante: l’impulso che OpenAI attribuisce al progetto va oltre il mero “diffondere più potenza di calcolo”. Sam Altman ha dichiarato che collaborare con Broadcom rappresenta “un passo critico per costruire l’infrastruttura necessaria a sbloccare il potenziale dell’IA e portare benefici alle persone e alle imprese”. Hock Tan di Broadcom ha rafforzato l’idea che si tratti di un progetto di lungo respiro, paragonabile a costruire ferrovie o Internet: non si compie in cinque anni.
Quanto ai tempi, secondo le comunicazioni ufficiali, i rack contenenti i nuovi acceleratori verranno distribuiti nei data center a partire dalla seconda metà del 2026, con un completamento previsto entro la fine del 2029. Non è previsto che Broadcom costruisca i data center: piuttosto, fornirà hardware che sarà installato da OpenAI o dai suoi partner cloud.