Nvidia ha annunciato oggi il lancio del suo nuovo DGX SuperPod, il sistema più potente mai creato dall’azienda, come parte di un’ampia iniziativa di lancio hardware e software alla conferenza Nvidia GTC.
Il DGX si è affermato come uno dei principali sistemi hardware e cloud server di Nvidia negli ultimi anni. Il nuovo DGX SuperPod è alimentato dalla prossima generazione di GPU Nvidia per l’accelerazione AI, chiamata Blackwell, che è stata annunciata come successore della GPU Hopper al GTC. Nvidia ha posizionato il Blackwell per supportare modelli di intelligenza artificiale con trilioni di parametri.
Il DGX SuperPod presenta la versione superchip GB200 del Blackwell, che include sia risorse CPU che GPU. La precedente generazione di superchip Grace Hopper di Nvidia è stata al centro dei precedenti sistemi DGX. I sistemi DGX esistenti di Nvidia sono già ampiamente utilizzati in diversi settori, tra cui la scoperta di farmaci, l’assistenza sanitaria e i servizi finanziari, tra gli altri.
Ian Buck, vicepresidente di Hyperscale e HPC presso Nvidia, ha descritto il DGX SuperPod come “una piattaforma di supercalcolo di livello mondiale, chiavi in mano”. Ha sottolineato che il sistema supporta l’intero stack software AI di Nvidia, offrendo affidabilità e scalabilità senza pari.
Nonostante il termine “SuperPod” possa sembrare un semplice stratagemma di marketing, l’hardware effettivo che Nvidia sta inserendo nel nuovo sistema DGX è notevole.
Un DGX SuperPod non è un singolo server rack, ma una combinazione di più sistemi DGX GB200. Ogni sistema DGX GB200 è dotato di 36 superchip Nvidia GB200, che includono 36 CPU Nvidia Grace e 72 GPU Nvidia Blackwell, collegati come un singolo supercomputer tramite Nvidia NVLink di quinta generazione.
Ciò che rende “super” il DGX SuperPod è la sua capacità di essere configurato con otto o più sistemi DGX GB200 e di scalare fino a decine di migliaia di Superchip GB200 collegati tramite Nvidia Quantum InfiniBand.
Il sistema può fornire 240 terabyte di memoria, essenziale per l’addestramento di modelli LLM e l’inferenza generativa su vasta scala nell’intelligenza artificiale. Inoltre, Nvidia ha affermato che il DGX SuperPod ha una potenza di supercalcolo AI di 11,5 exaflop.
Un elemento chiave del DGX SuperPod è la sua struttura di elaborazione unificata, alimentata dalla tecnologia di rete Nvidia Quantum-X800 InfiniBand appena annunciata. Questa architettura offre un’ampia larghezza di banda a ciascuna GPU della piattaforma.
Il DGX SuperPod integra anche le unità di elaborazione dati (DPU) Nvidia BlueField-3 e la quinta generazione dell’interconnessione Nvidia NVLink.
Inoltre, il nuovo SuperPod include la tecnologia SHARP (Scalable Hierarchical Aggregation and Reduction Protocol) di quarta generazione di Nvidia, che offre un’elaborazione in rete significativamente migliorata rispetto alla generazione precedente.
I nuovi sistemi DGX basati su GB200 saranno disponibili anche nel servizio cloud Nvidia DGX. Le funzionalità GB200 saranno prima disponibili su Amazon Web Services (AWS), Google Cloud e Oracle Cloud.
Ian Buck ha sottolineato che il DGX Cloud è stato co-progettato con i partner cloud di Nvidia per fornire la migliore tecnologia Nvidia per l’uso sia interno che esterno.
Il nuovo GB200 contribuirà anche ad avanzare il supercomputer Project Ceiba, sviluppato da Nvidia con AWS. Buck ha annunciato che il progetto è stato aggiornato per supportare 20.000 GPU, offrendo oltre 400 exaflop di intelligenza artificiale.