Il recente annuncio della partnership strategica tra NVIDIA e Thinking Machines Lab segna l’ingresso in una nuova era della progettazione infrastrutturale per l’intelligenza artificiale, spostando il baricentro tecnologico dai singoli cluster di calcolo a intere “fabbriche di IA” su scala metropolitana. Al centro di questo accordo vi è l’impegno di NVIDIA nel sostenere la crescita della startup fondata da Mira Murati, ex CTO di OpenAI, non solo attraverso un investimento di capitale multimiliardario, ma soprattutto mediante la fornitura prioritaria della prossima generazione di hardware basata sull’architettura Vera Rubin. La portata dell’operazione è definita da un obiettivo tecnico senza precedenti: il dispiegamento di una capacità computazionale pari a un gigawatt, una misura che trasforma radicalmente il concetto di data center, elevandolo a una struttura di potenza paragonabile a quella necessaria per alimentare centinaia di migliaia di abitazioni.

Dal punto di vista tecnico, l’integrazione dei sistemi Vera Rubin rappresenta il fulcro tecnologico della collaborazione. Questa nuova piattaforma di NVIDIA è stata progettata specificamente per superare i colli di bottiglia termici ed energetici che limitano le attuali generazioni di GPU, introducendo innovazioni cruciali nella memoria ad alta banda (HBM4) e nelle interconnessioni NVLink di sesta generazione. Per Thinking Machines Lab, l’accesso a questa infrastruttura permette di addestrare modelli di frontiera e sistemi collaborativi, come il loro API “Tinker”, con una velocità di calcolo e un’efficienza energetica per watt nettamente superiore agli standard attuali. L’architettura del sistema è ottimizzata per l’inferenza e l’addestramento di modelli multimodali complessi, garantendo una riduzione della latenza nelle comunicazioni inter-nodo, fattore critico quando si opera su cluster che comprendono milioni di unità di elaborazione distribuite.

La gestione di un carico elettrico da un gigawatt impone sfide ingegneristiche monumentali che vanno ben oltre la semplice fornitura di chip. Un’infrastruttura di questa magnitudo richiede una revisione completa dei sistemi di raffreddamento, che in queste nuove “AI Factories” passano quasi interamente a soluzioni a liquido (liquid cooling) per gestire densità di calore che il raffreddamento ad aria non è più in grado di dissipare efficacemente. Inoltre, la stabilità della rete elettrica e l’approvvigionamento da fonti rinnovabili diventano componenti integranti del design del sistema. NVIDIA e Thinking Machines Lab stanno lavorando alla simulazione di questi impianti attraverso tecnologie di Digital Twin, utilizzando piattaforme come Omniverse per prevedere il comportamento fisico e logico del data center prima ancora della sua costruzione, riducendo i rischi operativi legati a cali di tensione o inefficienze termiche.

Oltre all’aspetto puramente hardware, la partnership si estende allo sviluppo congiunto di software per l’ottimizzazione dei carichi di lavoro. L’obiettivo è creare un ecosistema in cui l’intelligenza artificiale non sia solo un prodotto finale, ma uno strumento per gestire l’infrastruttura stessa. Attraverso l’uso di agenti autonomi e sistemi di controllo predittivo, Thinking Machines Lab punta a massimizzare l’utilizzo di ogni singolo watt, orchestrando la distribuzione dei task computazionali in tempo reale per evitare sprechi energetici durante i picchi di carico. Questa visione trasforma il data center in un organismo dinamico, capace di adattarsi alle esigenze dei modelli di linguaggio di nuova generazione e delle applicazioni di superintelligenza che richiedono una scalabilità quasi infinita.

Di Fantasy