Durante un atteso keynote al COMPUTEX Taipei, Jensen Huang, fondatore e CEO di Nvidia, ha presentato una serie di innovazioni all’avanguardia che sfruttano l’IA generativa per rivoluzionare diversi settori, dall’advertising alla produzione fino alle telecomunicazioni. Questo evento dal vivo è stato il primo intervento di Huang di persona dall’inizio della pandemia.
Secondo Huang, queste innovazioni non solo agevoleranno nuovi modelli di business, ma miglioreranno anche significativamente l’efficienza dei modelli esistenti in molti settori.
Uno dei momenti salienti del keynote è stato il lancio ufficiale di Grace Hopper, una piattaforma che combina l’efficiente CPU Nvidia Grace con la potente GPU Nvidia H100 Tensor Core. Questo modulo all-in-one offre prestazioni IA senza precedenti, ha affermato Huang.
Inoltre, Huang ha introdotto il DGX GH200, un supercomputer AI con ampie capacità di memoria che può integrare fino a 256 Superchip Nvidia Grace Hopper in una singola GPU delle dimensioni di un data center.
Con un exaflop di prestazioni e 144 terabyte di memoria condivisa, il DGX GH200 supera i suoi predecessori di quasi 500 volte, consentendo agli sviluppatori di creare modelli di linguaggio complessi per chatbot GenAI, algoritmi avanzati per i sistemi di raccomandazione e sofisticate reti neurali per attività come il rilevamento delle frodi e l’analisi dei dati. Secondo Huang, giganti della tecnologia come Google Cloud, Meta e Microsoft stanno già esplorando le capacità del DGX GH200 per i loro carichi di lavoro di intelligenza artificiale generativa.
Huang ha sottolineato che i supercomputer AI DGX GH200 integrano le tecnologie di elaborazione e rete più avanzate di Nvidia, spingendo i limiti dell’IA.
Huang ha anche presentato Nvidia Avatar Cloud Engine (ACE) per i giochi, un servizio che consente agli sviluppatori di creare e distribuire modelli personalizzati di intelligenza artificiale per il parlato, la conversazione e l’animazione. ACE dota i personaggi non giocanti di capacità di conversazione, permettendo loro di rispondere alle domande con personalità realistiche in continua evoluzione.
Il toolkit comprende modelli di base di IA come Nvidia Riva per il rilevamento e la trascrizione del parlato, Nvidia NeMo per la generazione di risposte personalizzate e Nvidia Omniverse Audio2Face per l’animazione di queste risposte.
Inoltre, Nvidia ha annunciato la collaborazione con Microsoft per guidare l’innovazione nell’era dell’IA generativa per i PC Windows. La partnership prevede lo sviluppo di strumenti, framework e driver avanzati che semplificano il processo di sviluppo e implementazione dell’IA sui PC.
La collaborazione mira a migliorare ed espandere la base installata di oltre 100 milioni di PC con GPU RTX dotate di Tensor Core, aumentando le prestazioni di oltre 400 applicazioni e giochi Windows con accelerazione AI.
Huang ha affermato che il potenziale dell’IA generativa si estende anche al settore della pubblicità digitale, dove Nvidia sta collaborando con l’organizzazione di servizi di marketing WPP. Insieme, hanno sviluppato un motore di contenuti innovativo sulla piattaforma Omniverse Cloud.
Questo motore consente ai team creativi di collegare i propri strumenti di progettazione 3D, come Adobe Substance 3D, per creare gemelli digitali di prodotti clienti all’interno di Nvidia Omniverse. Utilizzando strumenti GenAI addestrati su dati affidabili e alimentati da Nvidia Picasso, questi team saranno in grado di produrre rapidamente set virtuali.
Nvidia ha dichiarato che questa nuova funzionalità consente ai clienti WPP di generare una moltitudine di annunci, video ed esperienze 3D personalizzati per i mercati globali, accessibili su qualsiasi dispositivo web.
Inoltre, Nvidia ha annunciato il suo impegno di successo nel settore della produzione, un’industria da 46 trilioni di dollari che comprende circa 10 milioni di fabbriche. Huang ha sottolineato che grazie alle tecnologie Nvidia, i produttori di elettronica come Foxconn Industrial Internet, Innodisk, Pegatron, Quanta e Wistron stanno adottando flussi di lavoro digitali, avvicinando così alla realtà la visione di fabbriche completamente digitali e intelligenti.
Secondo Huang, “Le più grandi industrie del mondo creano cose fisiche. Costruendole prima digitalmente, possiamo risparmiare miliardi”.
L’integrazione di Omniverse e delle API generative AI ha consentito a queste aziende di stabilire connessioni tra strumenti di progettazione e produzione, creando repliche digitali delle loro fabbriche, chiamate gemelli digitali.
Inoltre, le aziende stanno utilizzando Nvidia Isaac Sim per simulare e testare robot e Nvidia Metropolis, un framework di intelligenza artificiale per la visione, per l’ispezione ottica automatizzata. L’ultima aggiunta dell’azienda, Nvidia Metropolis for Factories, consente la creazione di sistemi di controllo qualità personalizzati, fornendo ai produttori un vantaggio competitivo e consentendo loro di sviluppare applicazioni AI all’avanguardia.
Nvidia ha anche rivelato la costruzione in corso di un impressionante supercomputer AI chiamato Nvidia Helios, che dovrebbe essere operativo entro la fine dell’anno. Il supercomputer utilizzerà quattro sistemi DGX GH200 interconnessi con la rete Nvidia Quantum-2 InfiniBand, offrendo una larghezza di banda fino a 400 Gb/s. Di conseguenza, il throughput dei dati per l’addestramento di modelli di intelligenza artificiale su larga scala sarà notevolmente migliorato.
Oltre a questo sviluppo rivoluzionario, Nvidia ha introdotto Nvidia MGX, un’architettura di riferimento modulare che consente ai produttori di sistemi di creare in modo efficiente ed economico diverse configurazioni di server personalizzati per le applicazioni AI, HPC e Nvidia Omniverse.
Con l’architettura MGX, i produttori possono sviluppare CPU standardizzate e server accelerati utilizzando componenti modulari. Queste configurazioni supportano una gamma di GPU, CPU, unità di elaborazione dati (DPU) e adattatori di rete, inclusi i processori x86 e Arm.
Inoltre, le configurazioni MGX possono essere alloggiate in chassis raffreddati ad aria e a liquido. Le prime aziende ad adottare i progetti MGX saranno QCT e Supermicro, con le rispettive introduzioni previste per agosto. Altre importanti aziende, come ASRock Rack, ASUS, GIGABYTE e Pegatron, dovrebbero seguire l’esempio.
Huang ha annunciato sforzi di collaborazione per rivoluzionare l’infrastruttura 5G e il cloud networking. Ad esempio, una partnership con un importante gigante delle telecomunicazioni in Giappone svilupperà una rete distribuita di data center che sfrutterà le DPU Grace Hopper e BlueField-3 di Nvidia all’interno di sistemi MGX modulari.
Incorporando gli switch Ethernet dello spettro Nvidia, i data center faciliteranno la fornitura di tempi precisi richiesti dal protocollo 5G. Ciò porterà a una maggiore efficienza spettrale e a un ridotto consumo di energia. La piattaforma è promettente per varie applicazioni, tra cui guida autonoma, fabbriche di intelligenza artificiale, realtà aumentata e virtuale, visione artificiale e gemelli digitali.
Inoltre, Huang ha introdotto Nvidia Spectrum-X, una piattaforma di rete appositamente progettata per migliorare le prestazioni e l’efficienza dei cloud IA basati su Ethernet. Combinando gli switch Ethernet Spectrum-4 con DPU e software BlueField-3, Spectrum-X offre un aumento del 1,7 volte delle prestazioni AI e dell’efficienza energetica. I principali produttori di sistemi, come Dell Technologies, Lenovo e Supermicro, offrono già switch Nvidia Spectrum-X, Spectrum-4 e DPU BlueField-3.
Nvidia sta anche facendo passi da gigante nella creazione di centri di supercalcolo AI generativi in tutto il mondo. Ad esempio, in Israele, l’azienda sta costruendo Israel-1, un supercomputer all’avanguardia all’interno del suo data center locale. Israel-1 comprende i server Dell PowerEdge, la piattaforma di supercalcolo Nvidia HGX H100 e la piattaforma Spectrum-X con DPU BlueField-3 e switch Spectrum-4. Il suo obiettivo principale è accelerare gli sforzi locali di ricerca e sviluppo.
Inoltre, sono attualmente in fase di sviluppo due nuovi supercomputer a Taiwan: Taiwania 4 e Taipei-1. Taiwania 4, realizzato da ASUS e lanciato l’anno prossimo, sfrutta le CPU Grace basate su Arm e una rete InfiniBand Nvidia Quantum-2. Nvidia ha dichiarato che è uno dei supercomputer più efficienti dal punto di vista energetico in Asia.
D’altra parte, Taipei-1, di proprietà e gestito da Nvidia, presenterà 64 supercomputer AI DGX H100, 64 sistemi Nvidia OVX e reti Nvidia. L’azienda ritiene che queste aggiunte miglioreranno in modo significativo le iniziative locali di ricerca e sviluppo, ha affermato Huang.