L’accordo strategico tra Meta e Google per la fornitura a lungo termine di Tensor Processing Unit rappresenta una svolta significativa nel panorama dell’hardware per il calcolo ad alte prestazioni. Il contratto, valutato in decine di miliardi di dollari, sancisce l’ingresso massiccio delle unità di calcolo custom di Google nei data center di Meta, segnando un cambiamento di rotta rispetto alla tradizionale dipendenza dell’industria dalle Graphical Processing Unit di NVIDIA. Questa collaborazione non si limita a una semplice fornitura di capacità computazionale via cloud, ma prevede l’integrazione fisica delle TPU direttamente nelle infrastrutture di Meta a partire dal prossimo anno, un traguardo tecnico e commerciale che posiziona Google come un’alternativa concreta e scalabile nel mercato dei chip per l’addestramento dell’intelligenza artificiale.
La decisione di Meta di adottare le TPU per le fasi di addestramento dei modelli, e non solo per l’inferenza, sfida il consolidato dominio tecnologico di NVIDIA in questo specifico segmento. Storicamente, l’addestramento di modelli linguistici di grandi dimensioni ha richiesto l’architettura SIMT (Single Instruction Multiple Threads) e l’ecosistema software CUDA, ambiti in cui NVIDIA ha mantenuto un vantaggio competitivo quasi inattaccabile. Tuttavia, le difficoltà incontrate da Meta nello sviluppo interno dei propri chip proprietari hanno accelerato la ricerca di alternative. L’interruzione dei progetti Olympus e Iris, causata dalla complessità del design e dai rischi legati alla produzione di massa, ha evidenziato quanto sia arduo replicare internamente un’infrastruttura capace di competere con i leader di mercato. In questo contesto, la TPU di Google emerge come una soluzione matura e ottimizzata per carichi di lavoro su larga scala, offrendo un rapporto costo-prestazioni che Google sta promuovendo aggressivamente presso i grandi istituti finanziari e i giganti tecnologici.
L’operazione finanziaria sottostante questo accordo introduce modelli di business innovativi nel settore del silicio. Google sta infatti esplorando strutture di finanziamento complesse, che includono la creazione di joint venture con società di investimento per l’acquisto di grandi volumi di TPU, le quali vengono poi noleggiate ai clienti finali. Questo schema, che prevede anche l’utilizzo dell’hardware stesso come garanzia per la raccolta di fondi tramite società veicolo, ricalca le strategie di capitalizzazione adottate da altre realtà del settore, come xAI, per assicurarsi le forniture di chip in un mercato caratterizzato da una domanda costantemente superiore all’offerta. Tale approccio permette a Google di espandere rapidamente la propria base installata di TPU, puntando a sottrarre fino al dieci per cento della quota di mercato di NVIDIA, pur dovendo gestire un delicato equilibrio strategico. Google rimane infatti uno dei principali acquirenti di GPU NVIDIA per mantenere la competitività dei propri servizi cloud, e le due aziende competono per la medesima capacità produttiva presso le fonderie di TSMC.
La fornitura di silicio per l’intelligenza artificiale si sta dunque trasformando in un ecosistema multi-vendor, dove i principali sviluppatori di modelli cercano di mitigare il rischio di lock-in tecnologico e di scarsità di scorte diversificando i propri fornitori. La firma di partnership multigenerazionali di Meta con NVIDIA e gli accordi su larga scala con AMD, uniti alla nuova intesa con Google, riflettono una strategia di protezione della capacità di calcolo necessaria per alimentare le future generazioni di modelli generativi. Analogamente, altre grandi realtà come OpenAI e Anthropic stanno stringendo alleanze con una pluralità di attori, da Cerebras ad Amazon, confermando che la competizione tecnologica si è spostata dal solo livello algoritmico a quello dell’integrazione verticale tra architettura hardware, efficienza energetica e stabilità dell’ecosistema software.
