Oggi è un’intensa giornata di novità da Nvidia, poiché il leader nell’ambito dell’IA ha rivelato una serie di nuovi sviluppi durante la conferenza annuale SIGGRAPH.
Nel campo dell’hardware, uno dei progressi più significativi dell’azienda è l’annuncio di una nuova versione della piattaforma GH200 Grace Hopper, che è alimentata dalla nuova tecnologia di memoria HBM3e di ultima generazione. Questo nuovo GH200, annunciato oggi, rappresenta un’evoluzione dell’esistente chip GH200, introdotto inizialmente alla fiera Computex di Taiwan lo scorso maggio.
“Abbiamo introdotto Grace Hopper qualche tempo fa e oggi siamo entusiasti di annunciare un potenziamento significativo”, ha dichiarato Jensen Huang, fondatore e CEO di Nvidia, nel suo discorso principale al SIGGRAPH.
Il Grace Hopper Superchip è stato un punto centrale nell’agenda del CEO di Nvidia almeno sin dal 2021, quando l’azienda ha iniziato a rivelarne i dettagli preliminari. Questo superchip si basa sull’architettura Arm, che è ampiamente utilizzata nei dispositivi mobili ed è in competizione con i prodotti a base di silicio x86 di Intel e AMD. Nvidia lo definisce “superchip” poiché combina la CPU Nvidia Grace, basata su architettura Arm, con l’architettura della GPU Hopper.
Con il lancio della nuova versione del GH200, il Grace Hopper Superchip riceve un notevole potenziamento grazie alla memoria più veloce al mondo, la HBM3e. Secondo Nvidia, la HBM3e offre una velocità fino al 50% superiore rispetto alla tecnologia HBM3 presente nella generazione attuale del GH200.
Nvidia afferma inoltre che la memoria HBM3e consentirà al prossimo GH200 di eseguire modelli AI con una velocità fino a 3,5 volte superiore rispetto al modello attuale.
“Il nuovo GH200 ci emoziona molto. Sarà dotato di 141 gigabyte di memoria HBM3e”, ha spiegato Ian Buck, VP e general manager di Nvidia per hyperscale e HPC, durante una sessione con la stampa e gli analisti. “La HBM3e non solo incrementa la capacità e la quantità di memoria collegata alle nostre GPU, ma è anche notevolmente più veloce.”
Una maggiore velocità di elaborazione significa una maggiore efficienza nell’esecuzione e nell’addestramento di applicazioni di intelligenza artificiale, più ampie e complesse. Tuttavia, Nvidia non si limita solamente a produrre silicio più veloce, ma sta anche rivisitando il design dei server.
Buck ha rivelato che Nvidia sta sviluppando un nuovo sistema server denominato Nvidia MGX, basato su doppio GH200, che includerà due dei nuovi Superchip Grace Hopper. Questi saranno connessi tramite la tecnologia di interconnessione di Nvidia chiamata NVLink.
Con NVLink all’interno del nuovo server dual-GH200, sia le CPU che le GPU del sistema saranno collegate attraverso un’interconnessione di memoria completamente coesa.
“Le CPU saranno in grado di accedere alla memoria di altre CPU, e lo stesso vale per le GPU. Inoltre, la GPU avrà accesso alla memoria della CPU”, ha spiegato Buck. “Ciò permette alla super-GPU combinata di operare come un’unica entità, fornendo 144 core CPU Grace che si traducono in 8 petaflop di prestazioni di calcolo, supportati da 282 gigabyte di memoria HBM3e.”
Nonostante la velocità impressionante del nuovo superchip Nvidia Grace Hopper, passerà ancora un po’ di tempo prima che diventi disponibile per utilizzi pratici. Si prevede che la prossima generazione del GH200 sarà pronta nel secondo trimestre del 2024.