NVIDIA ha annunciato che ora i suoi 28 milioni di sviluppatori in tutto il mondo possono scaricare e distribuire “NIM” su cloud, data center e workstation. NIM è un microservizio di inferenza progettato per fornire modelli di intelligenza artificiale (AI) in contenitori ottimizzati. Questo strumento permette agli sviluppatori di creare applicazioni di intelligenza artificiale generativa, come copiloti e chatbot, in pochi minuti anziché settimane.
NIM è stato presentato per la prima volta al GTC lo scorso marzo e offre una configurazione full stack, incluso l’ambiente CUDA e i microservizi, oltre a modelli pre-addestrati. L’obiettivo è semplificare il processo di integrazione dell’intelligenza artificiale generativa nelle applicazioni, seguendo la tendenza attuale di utilizzare una varietà di modelli per generare testo, immagini, video e altro.
NVIDIA ha evidenziato che l’utilizzo di NIM può massimizzare gli investimenti infrastrutturali delle aziende. Ad esempio, l’esecuzione del modello “Rama 3-8B” di Meta su NIM può generare fino a 3 volte più token AI generati rispetto all’esecuzione senza NIM.
Più di 200 partner tecnologici, tra cui Cadence, Cloudera, Cohesity, DataStax, NetApp e Scale AI, stanno integrando NIM nelle loro piattaforme, accelerando l’adozione dell’intelligenza artificiale generativa per applicazioni specifiche del dominio.
Secondo il CEO Jensen Huang, NVIDIA NIM è disponibile su tutte le piattaforme, accessibile ovunque e può essere eseguito ovunque, consentendo a ogni azienda di adottare l’intelligenza artificiale generativa senza necessità di un team di ricerca dedicato.
A partire dal mese prossimo, i membri del programma per sviluppatori Nvidia potranno utilizzare NIM gratuitamente attraverso la piattaforma software aziendale NVIDIA AI.