Dopo aver raggiunto una valutazione record di 1 trilione di dollari e di fronte alle preoccupazioni legate alla carenza di unità di elaborazione grafica (GPU), Nvidia ha presentato oggi un nuovo prodotto rivolto agli sviluppatori. Questo strumento consente loro di creare da zero i propri modelli di intelligenza artificiale generativa direttamente su PC o workstation.
Denominata “AI Workbench”, questa nuova piattaforma è stata annunciata durante la conferenza annuale SIGGRAPH (Special Interest Group on Computer Graphics and Interactive Techniques) a Los Angeles. L’interfaccia utente intuitiva di AI Workbench gira direttamente sulla macchina dello sviluppatore e si integra con diverse risorse chiave, tra cui HuggingFace, Github e il portale web aziendale NVIDIA NGC. Questa integrazione semplifica l’accesso a repository di codice open source o commerciali nel campo dell’IA, eliminando la necessità di aprire numerose finestre del browser. Gli sviluppatori possono quindi importare il codice dei modelli e personalizzarli in base alle proprie esigenze.
Erik Pounds, un professionista del marketing e dei prodotti di Nvidia, ha spiegato in una chiamata con VentureBeat: “Puoi lavorare con questi modelli di IA e personalizzarli direttamente sulla tua workstation, persino sul tuo laptop. È un progresso significativo: consente agli sviluppatori di lavorare su modelli di linguaggio di ampia portata direttamente a livello locale”.
Secondo il comunicato stampa di Nvidia, AI Workbench “semplifica l’avvio di progetti aziendali legati all’IA”.
Marchi rilevanti nell’ambito delle infrastrutture di intelligenza artificiale, come Dell Technologies, Hewlett Packard Enterprise, HP Inc., Lambda, Lenovo e Supermicro, hanno già abbracciato AI Workbench, riconoscendone il potenziale per ottimizzare le loro più recenti workstation desktop multi-GPU, workstation mobili di fascia alta e workstation virtuali.
Inoltre, gli sviluppatori che utilizzano PC o workstation RTX basate su Windows o Linux possono ora testare e personalizzare progetti aziendali di intelligenza artificiale generativa direttamente sui loro sistemi RTX locali. In caso di necessità, è anche possibile accedere alle risorse del data center e del cloud computing.
Erik Pounds ha precisato: “Workbench semplifica il passaggio dallo sviluppo su un singolo PC a ambienti su larga scala e, man mano che il progetto matura, agevola anche la transizione verso la fase di produzione. Il software rimane costante in tutto il processo.”
Parallelamente a Workbench, Nvidia ha presentato l’ultima versione della sua piattaforma software aziendale, Nvidia AI Enterprise 4.0. Questa versione mira a fornire alle aziende strumenti per integrare e implementare modelli di intelligenza artificiale generativa nelle loro operazioni, assicurando al contempo connessioni API stabili e sicure.
Tra le caratteristiche di AI Enterprise 4.0 spiccano Nvidia NeMo, un framework nativo per il cloud che offre supporto completo per la creazione e la personalizzazione di applicazioni LLM (Linguaggio e Modelli Linguistici), e Nvidia Triton Management Service, che automatizza e ottimizza le distribuzioni in ambiente di produzione. Inoltre, è inclusa Nvidia Base Software di gestione dei cluster Command Manager Essentials, che aiuta le aziende a ottimizzare le prestazioni e l’utilizzo dei server AI in ambienti quali data center, multi-cloud e cloud ibridi.
Anche aziende di rilievo come ServiceNow, Snowflake e Dell Technologies hanno annunciato collaborazioni con Nvidia per lo sviluppo di nuovi prodotti legati all’IA.