Nvidia ha annunciato una nuova e potente collaborazione con Microsoft, mirando a rafforzare la sua strategia di co-vendita. Durante la conferenza Ignite ospitata da Microsoft, il colosso dei chip ha svelato il suo servizio di fonderia di intelligenza artificiale, progettato per aiutare aziende e startup a creare applicazioni personalizzate di intelligenza artificiale (IA) basate sul cloud di Azure, incluso il supporto per il recupero di generazione aumentata (RAG).
Jensen Huang, il fondatore e CEO di Nvidia, ha spiegato: “Il servizio AI Foundry di Nvidia combina le nostre tecnologie di modelli di intelligenza artificiale generativa, competenze di formazione Large Language Model (LLM) e una fabbrica di intelligenza artificiale su larga scala. L’abbiamo integrato in Microsoft Azure in modo che le aziende in tutto il mondo possano collegare i propri modelli personalizzati ai servizi cloud leader di Microsoft.”
Inoltre, Nvidia ha presentato nuovi modelli da 8 miliardi di parametri come parte del servizio di fonderia e ha pianificato l’integrazione della sua prossima generazione di GPU in Microsoft Azure nei prossimi mesi.
Come funziona il servizio AI Foundry su Azure? Con questo servizio, le aziende che utilizzano la piattaforma cloud di Azure avranno accesso a tutti gli elementi necessari per sviluppare applicazioni IA personalizzate per il loro business. Questo significa che avranno a disposizione tutto ciò che serve, dalla tecnologia di base di Nvidia e dal framework NeMo, al servizio di supercalcolo cloud Nvidia DGX.
Manuvir Das, vicepresidente dell’enterprise computing di Nvidia, ha spiegato: “Per la prima volta, l’intero processo, compreso hardware e software, è completamente disponibile su Microsoft Azure. Ogni cliente può venire e gestire l’intero flusso di lavoro di intelligenza artificiale generativa aziendale con Nvidia su Azure. Possono acquisire direttamente i componenti tecnologici necessari tramite Azure. In breve, è una partnership tra Nvidia e Microsoft.”
Nvidia sta anche ampliando l’offerta di modelli di base per il servizio Foundry in Azure, con l’introduzione di una nuova famiglia di modelli Nemotron-3 8B. Questi modelli supportano la creazione di chat aziendali avanzate e applicazioni di domande e risposte in settori come la sanità, le telecomunicazioni e i servizi finanziari. I modelli saranno multilingue e saranno disponibili attraverso il catalogo dei modelli AI di Azure, nonché tramite Hugging Face e il catalogo Nvidia NGC.
Oltre a ciò, Nvidia ha annunciato una partnership con Oracle il mese scorso, offrendo alle aziende la possibilità di acquistare strumenti direttamente dal marketplace Oracle Cloud per l’implementazione su infrastruttura Oracle Cloud (OCI).
Attualmente, aziende leader come SAP, Amdocs e Getty Images sono tra i primi ad utilizzare il servizio Foundry su Azure, sviluppando applicazioni IA personalizzate per vari casi d’uso.
La collaborazione tra Microsoft e Nvidia non riguarda solo i servizi, ma anche l’hardware. Microsoft ha introdotto le nuove macchine virtuali NC H100 v5 per Azure, le prime istanze cloud dell’industria con una coppia di GPU H100 basate su PCIe collegate tramite Nvidia NVLink. Queste istanze offrono quasi quattro petaflop di capacità di elaborazione AI e 188 GB di memoria HBM3 più veloce.
Inoltre, Microsoft prevede di aggiungere la GPU Nvidia H200 Tensor Core alla sua flotta Azure l’anno prossimo. Questa GPU offre 141 GB di memoria HBM3e e 4,8 TB/s di larghezza di banda di memoria di picco, ed è progettata per gestire carichi di lavoro IA di grandi dimensioni, inclusa la formazione di modelli generativi e l’inferenza.
Infine, per accelerare il lavoro sui modelli di linguaggio di grandi dimensioni (LLM) su dispositivi Windows, Nvidia ha annunciato una serie di aggiornamenti, tra cui un aggiornamento per TensorRT LLM per Windows, che supporta nuovi modelli linguistici come Mistral 7B e Nemotron-3 8B. L’aggiornamento promette prestazioni di inferenza cinque volte più veloci, rendendo più agevole l’esecuzione di questi modelli su PC Windows 11 con GPU GeForce RTX serie 30 e 40.
Questi sviluppi rappresentano un passo avanti significativo nell’integrazione dell’IA e dei LLM nell’ecosistema aziendale, promettendo una maggiore flessibilità e capacità di sviluppo per le aziende che vogliono sfruttare appieno il potenziale dell’IA nei loro processi aziendali.