Negli ultimi giorni è emersa una notizia che, per chi segue con attenzione l’evoluzione dell’infrastruttura per l’intelligenza artificiale, è di quelle che segnalano un cambio di paradigma. Microsoft avrebbe siglato un accordo da 19,4 miliardi di dollari con la società neocloud Nebius, con l’obiettivo di acquisire una capacità massiccia di GPU Nvidia da destinare ai suoi team interni di IA, liberando risorse nei suoi data center per soddisfare i clienti.

L’idea alla base è semplice ma ambiziosa: Microsoft, pur disponendo di data center immensi e distribuendo servizi cloud a decine di milioni di utenti, si trova a fare i conti con una “stretta” di capacità. Il boom dell’IA, la domanda di addestramento e inferenza di modelli sempre più grandi richiede un numero di GPU enorme, alimentate da energia, raffreddamento e infrastrutture di rete: costruire nuovi data center non è un processo rapido né immune da ostacoli. Così, la società ha deciso di “noleggiare” – piuttosto che costruire ex novo – risorse di elaborazione già esistenti presso operatori specializzati.

Secondo le fonti che hanno portato questa notizia alla luce, Microsoft garantirà oltre 100.000 GPU Nvidia GB300 tramite l’accordo con Nebius. Queste GPU verranno assegnate ai team che lavorano sui modelli generativi, sugli assistenti IA (come Copilot) e sulle infrastrutture di ricerca interne. L’azienda ha già annunciato in precedenza che aveva stanziato oltre 33 miliardi di dollari in contratti simili con operatori neocloud (tra cui CoreWeave, Nscale, Lambda), proprio per potenziare la propria “riserva” di capacità IA.

Una cifra come 19,4 miliardi – che in alcuni resoconti può essere flessibile, salendo da una base di 17,4 miliardi a 19,4 miliardi in funzione delle opzioni esercitate – indica quanto Microsoft sia determinata a non rimanere “bloccata” da limiti fisici o infrastrutturali nel suo piano di espansione IA.

Nel concreto, l’accordo con Nebius includerebbe l’accesso a cluster presso un nuovo data center a Vineland, New Jersey, con attivazione prevista in un arco temporale che va dalla fine del 2025 in poi.

Una domanda che sorge spontanea è: perché Microsoft non si limiti solo a espandere i propri data center? Il motivo è duplice. Da un lato la costruzione di nuovi grandi impianti richiede tempo: dal reperimento dei terreni all’approvvigionamento energetico, dalle opere civili alla rete, fino all’installazione di hardware. Dall’altro lato, in questa fase di corsa all’IA, la rapidità è un fattore decisivo: poter “prendere in prestito” capacità già attive consente di scalare subito, mentre il processo di costruzione procede in parallelo. È una strategia più elastica e meno vincolata al capitale fisso.

Un altro dettaglio tecnico affascinante: le GPU GB300, che probabilmente si dispongono in rack NVL72 (rack contenenti 72 GPU ciascuno), equivalgono, secondo stime riportate in vari articoli, a circa 1.400 rack completamente equipaggiati. Se ogni rack costa in media 3 milioni di dollari, il conto totale del contratto – almeno sulla carta – acquisisce tutto il suo peso.

Si crea così una dinamica in cui Microsoft utilizza l’infrastruttura neocloud per alimentare i suoi progetti interni di IA e libera i propri data center per l’erogazione di servizi AI verso clienti, come Azure AI, GitHub Copilot e altre soluzioni. In altre parole, i server che prima “trainavano” modelli vengono messi a disposizione di clienti che pagano, mentre i carichi interni si spostano sulle risorse affittate.

Ma questa scelta non è senza rischi o sfide. Esternalizzare una parte critica dell’infrastruttura AI significa affidarsi a operatori terzi in termini di affidabilità, latenza, banda di rete e integrazione software. Occorre che le GPU affittate si integrino perfettamente con l’ecosistema interno di Microsoft, con protocolli, orchestratori, dataset, flussi di lavoro. Serve che le prestazioni, la sicurezza e la coerenza dei sistemi non vengano compromesse dal “salto” in ambienti esterni.

Allo stesso tempo, l’accordo spinge il concetto di neocloud – cioè operatori specializzati che forniscono infrastruttura IA come servizio – verso il centro dell’attenzione. Nebius, in particolare, è nata dall’ambito Yandex e si è riposizionata come fornitore di GPU AI. Con l’accordo con Microsoft, la sua visibilità e credibilità nel panorama dei cloud IA salgono nettamente.

Dal punto di vista strategico, questa manovra testimonia come Microsoft non voglia essere limitata dalla capacità fisica: “non vogliamo essere vincolati dalla capacità”, ha detto Scott Guthrie, capo della divisione cloud di Microsoft. L’azienda sembra essere in modalità “espansione aggressiva”, consapevole che nell’era dell’IA chi resta indietro può faticare moltissimo a recuperare.

Di Fantasy