Le aziende sono aperte all’utilizzo dello sviluppo containerizzato per l’IA, ma la complessità di questi carichi di lavoro richiede l’orchestrazione su molti livelli dell’infrastruttura.
 
La suite software AI Enterprise di NVIDIA è ora generalmente disponibile. La versione 1.1 introduce nuovi aggiornamenti, incluso il supporto alla produzione per l’IA containerizzata con il software NVIDIA su VMware vSphere with Tanzu . Le aziende possono ora eseguire carichi di lavoro IA accelerati su vSphere, in esecuzione sia nei container Kubernetes che nelle macchine virtuali con NVIDIA AI Enterprise per supportare lo sviluppo AI avanzato sull’infrastruttura IT mainstream.

NVIDIA aggiungerà presto VMware vSphere con supporto Tanzu al programma NVIDIA LaunchPad per NVIDIA AI Enterprise, disponibile in nove sedi Equinix in tutto il mondo. Le aziende qualificate possono testare e creare prototipi di carichi di lavoro IA gratuitamente attraverso laboratori curati progettati per professionisti dell’IA e amministratori IT.

“Le organizzazioni stanno accelerando i progetti di sviluppo di AI e ML e VMware vSphere with Tanzu con Tanzu che esegue NVIDIA AI Enterprise potenzia facilmente i requisiti di sviluppo dell’IA con servizi di infrastruttura moderni”, ha affermato Matt Morgan, VP of Product Marketing, Cloud Infrastructure Business Group di VMware. “Questo annuncio segna un’altra pietra miliare per VMware e NVIDIA nei nostri sforzi continui per aiutare i team a sfruttare l’IA in tutta l’azienda”.

L’1.1 AI Enterprise fornisce anche la convalida per la piattaforma MLOps Domino Data Lab Enterprise con VMware vSphere con Tanzu. La nuova integrazione consente a più aziende di scalare la scienza dei dati in modo conveniente, accelerando la ricerca, lo sviluppo di modelli e l’implementazione di modelli su server accelerati tradizionali.

Le aziende sono aperte all’utilizzo dello sviluppo containerizzato per l’IA, ma la complessità di questi carichi di lavoro richiede l’orchestrazione su molti livelli dell’infrastruttura. “L’intelligenza artificiale è un carico di lavoro moderno molto popolare che favorisce sempre più l’implementazione nei container. Tuttavia, l’implementazione di funzionalità di intelligenza artificiale su larga scala all’interno dell’azienda può essere estremamente complessa, poiché richiede l’abilitazione a più livelli dello stack, da framework software di intelligenza artificiale, sistemi operativi, container, macchine virtuali e fino all’hardware”, ha affermato Gary Chen, direttore della ricerca, Software Defined Compute presso IDC. “Le soluzioni di IA complete e chiavi in ​​mano possono semplificare notevolmente l’implementazione e rendere l’IA più accessibile all’interno dell’azienda”.

 
Il rilascio di NVIDIA AI Enterprise è in linea con il lancio del server rack Cisco UCS C240 ​​M6 con GPU NVIDIA A100 Tensor Core. Il fattore di forma 2RU a due socket può alimentare un’ampia gamma di applicazioni di storage e I/O intensive, come analisi di big data, database, collaborazione, virtualizzazione, consolidamento e calcolo ad alte prestazioni.

Hitachi ha anche sviluppato un sistema certificato NVIDIA Hitachi Vantara, compatibile con NVIDIA AI Enterprise . Il server per uso generico a doppio processore è ottimizzato per prestazioni e capacità e offre un equilibrio tra elaborazione e storage con la flessibilità necessaria per alimentare un’ampia gamma di soluzioni e applicazioni.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi