Nvidia dettaglia i piani per trasformare i data center in fabbriche di intelligenza artificiale
La strada verso data center e supercomputer abilitati all’intelligenza artificiale più potenti sarà lastricata con silicio più potente. E se Nvidia farà a modo suo, gran parte dell’innovazione del silicio sarà la tecnologia che ha sviluppato.
Alla fiera dell’hardware per computer Computex a Taipei, Nvidia ha annunciato una serie di pietre miliari dell’hardware e nuove innovazioni per aiutare a portare avanti le aspirazioni dell’azienda. Un tema chiave è il miglioramento delle prestazioni per consentire una maggiore intelligenza dei dati e intelligenza artificiale per i casi d’uso.
Strategie relative a dati e intelligenza artificiale nella nuova era delle telecomunicazioni: in che modo Verizon sta sfruttando i dati e l’intelligenza artificiale per offrire un’eccezionale esperienza del cliente “fisica” 1
“L’intelligenza artificiale sta trasformando ogni settore infondendo intelligence in ogni coinvolgimento dei clienti”, ha affermato Paresh Kharya, direttore senior della gestione dei prodotti di Nvidia, durante un briefing con i media. “I data center si stanno trasformando in fabbriche di intelligenza artificiale”.
Il superchip Grace è un elemento costitutivo della fabbrica di intelligenza artificiale
Una delle tecnologie chiave che contribuiranno a rendere possibile la visione di Nvidia sono i superchip Grace dell’azienda. Al Computex, Nvidia ha annunciato che diversi fornitori di hardware, tra cui ASUS, Foxconn Industrial Internet, GIGABYTE, QCT, Supermicro e Wiwynn, costruiranno i sistemi di base Grace che inizieranno a essere spediti nella prima metà del 2023. Nvidia ha annunciato per la prima volta l’ unità di elaborazione centrale Grace superchip (CPU) nel 2021 come architettura basata su ARM per carichi di lavoro di intelligenza artificiale e calcolo ad alte prestazioni.
Kharya ha affermato che il superchip Grace sarà disponibile in diverse configurazioni: Un’opzione è un’architettura a due chip, collegata all’interconnessione NVLink di Nvidia. Tale configurazione consentirà fino a 144 core di calcolo ARM v9. Il secondo approccio è noto come Grace Hopper Superchip, che combina la CPU Grace con una GPU Nvidia Hopper.
“Grace Hopper è progettato per accelerare i più grandi carichi di lavoro di IA, HPC, cloud e iperscalabilità”, ha affermato Kharya.
Come parte dei suoi annunci Computex, Nvidia ha anche dettagliato l’architettura del server di dimensioni 2U (2 unità rack) progettata per consentire l’adozione nei data center.
Uno dei progetti di riferimento è il CGX, che ha lo scopo di aiutare ad accelerare la grafica cloud e i casi d’uso di gioco. Il CGX include il superchip Grace insieme alle GPU Nvidia a16 e alle unità di elaborazione dati (DPU) BlueField-3 . Un altro progetto di riferimento è il nuovo sistema OVX, pensato per abilitare i carichi di lavoro AI digital twin e Nvidia Omniverse . OVX utilizza anche Grace Superchip e BlueField-3, offrendo ai fornitori la possibilità di utilizzare una gamma di diverse GPU Nvidia. Infine, i progetti di riferimento HGX Grace e HGX Grace Hopper 2U forniscono sistemi ottimizzati per l’addestramento e l’inferenza dell’IA.
Nvidia ha anche annunciato nuove GPU raffreddate a liquido, a cominciare dall’A100. Kharya ha descritto l’approccio come la prima GPU PCIe per data center che utilizza la tecnologia di raffreddamento a liquido direct-to-chip. Le nuove GPU PCIe per il raffreddamento a liquido direct-to-chip verranno spedite a partire dal terzo trimestre di quest’anno.
“L’utilizzo di questa tecnologia comporta una riduzione del consumo energetico fino al 30%”, ha affermato.
Altri partner per Nvidia AI Enterprise
Nvidia sta anche sfruttando il suo tempo in Computex per coinvolgere più partner di mercato in APAC per la sua suite software Nvidia AI Enterprise , che aiuta le organizzazioni a creare e supportare flussi di lavoro di data science end-to-end. Il software è diventato generalmente disponibile per la prima volta nell’agosto 2021. Tra i nuovi partner APAC ci sono ADG, BayNex, Leadteck e ZeroOne.
“Risolvere le sfide con l’IA richiede una soluzione completa. Alla base della nostra piattaforma ci sono i componenti dell’infrastruttura necessari per costruire le fabbriche di intelligenza artificiale, tra cui CPU, GPU e DPU”, ha affermato Kharya. “Inoltre c’è il nostro stack software che gestisce queste fabbriche di intelligenza artificiale e le gestisce in modo ottimale. “