NVIDIA ha recentemente svelato la sua più recente innovazione: la piattaforma di nuova generazione NVIDIA GH200 Grace Hopper. Al centro di questa novità si trova l’innovativo Superchip Grace Hopper, equipaggiato con il pionieristico processore HBM3e.
Questa nuova configurazione segna una vera rivoluzione, offrendo una capacità di memoria aumentata del 350% e una larghezza di banda triplicata rispetto alla versione precedente. Il cuore di questa configurazione è un singolo server dotato di 144 core Arm Neoverse, che garantisce una potenza di calcolo AI di otto petaflop e vanta un’ampia dotazione di 282 GB della più recente tecnologia di memoria HBM3e.
Tutto ciò è stato progettato meticolosamente per soddisfare le esigenze del calcolo rapido e dell’entusiasmante mondo dell’IA generativa. La memoria HBM3e, che supera in velocità il modello attuale HBM3, offre un impressionante totale di 10 TB/sec di larghezza di banda combinata. Ciò permette a questa nuova piattaforma di gestire modelli che sono ben 3,5 volte più grandi rispetto alla versione precedente, migliorando al contempo le prestazioni grazie a una larghezza di banda di memoria triplicata. NVIDIA ha dichiarato che prevede di rilasciare questo nuovo chip AI entro il secondo trimestre del 2024.
L’architettura della piattaforma sfrutta il Superchip Grace Hopper, che può essere connesso ad altri Superchip tramite NVIDIA NVLink, consentendo loro di collaborare nell’elaborazione di modelli di IA generativa di dimensioni considerevoli. Questa tecnologia coesa e ad alta velocità garantisce alla GPU un accesso completo alla memoria della CPU, fornendo una memoria veloce combinata di 1,2 TB in configurazione doppia.
La nuova generazione GH200 di NVIDIA si posiziona al di sopra dell’AMD 1300X, previsto entro la fine dell’anno. Recentemente, per contrastare NVIDIA, AMD ha implementato ulteriori 64 gigabyte di memoria HBM3 nell’M1300X.
L’M1300X combina il processore CNA3 con 192 gigabyte di memoria HBM3, leader nel settore, offrendo una larghezza di banda di memoria di 5,2 terabyte al secondo, inferiore ai 10 TB/sec forniti dal GH200. Tuttavia, non è solo AMD a sfidare NVIDIA; anche Intel, che ha cercato di recuperare terreno nella corsa alla creazione di GPU per l’addestramento di modelli di lingua naturale, è stata superata dalla nuova piattaforma di NVIDIA.
Il GH200 supera di gran lunga il Gaudi2 di Intel. Il sottosistema di memoria di Gaudi2 include 96 GB di memorie HBM2E che offrono una larghezza di banda di 2,45 TB/sec, insieme a 48 MB di SRAM locale con una larghezza di banda sufficiente per consentire a MME, TPC, DMA e NIC RDMA di operare in parallelo.
Continuando su questa linea, Intel ha annunciato il suo ingresso nel campo dei chip AI quest’anno, preparandosi a sfidare sia NVIDIA che AMD. Si prevede che il prossimo chip “Falcon Shores” di Intel presenterà un’impressionante capacità di memoria di 288 gigabyte, con supporto per il calcolo in virgola mobile a 8 bit.
Falcon Shores userà la tradizionale commutazione Ethernet, simile all’architettura Gaudi di Intel progettata per le attività di intelligenza artificiale. Questo chip offrirà diverse opzioni di memoria HBM3 e I/O adattabili, probabilmente a indicare una gamma di scelte di memoria. Intel afferma che fornirà fino a 288 GB di memoria HBM3 e una velocità di memoria complessiva di 9,8 TB/s.
Tuttavia, il debutto di Falcon Shores di Intel è stato posticipato e si prevede che avverrà nel 2025, presentando inizialmente solo i core GPU; resta incerto quando verranno introdotti i core CPU. Nel loro recente rapporto sugli utili, il CEO di Intel Pat Gelsinger ha dichiarato che Gaudi3 sarà il prodotto di punta per l’anno prossimo e che stanno già lavorando su Falcon Shores 2 per il 2026.
Considerando che il GH200 di NVIDIA è previsto per essere rilasciato prima rispetto a Falcon Shore e Falcon Shore 2, sembra piuttosto improbabile che Intel possa superare NVIDIA in questa corsa. Intel ha delineato diverse strategie ambiziose da attuare con successo al fine di competere con NVIDIA.
Un elemento cruciale del successo hardware di NVIDIA è rappresentato da CUDA, che consente il calcolo parallelo. CUDA è fondamentale per NVIDIA quando si tratta di IA.
Per affrontare la sfida posta da CUDA, AMD ha recentemente lanciato un aggiornamento per RocM. Questo rappresenta un passo importante per AMD, dato che CUDA è sempre stato uno dei principali vantaggi competitivi di NVIDIA, soprattutto in ambito di carichi di lavoro accelerati dall’IA.