Nvidia ha presentato i suoi piani per l’intelligenza artificiale vocale alla conferenza GTC 2023, annunciando lo sviluppo di un grande modello di linguaggio (LLM) che giocherà un ruolo importante. L’azienda ha inoltre presentato NeMo, un servizio di cloud computing che crea modelli linguistici e vocali basati sull’IA, DGX Cloud, una piattaforma di infrastruttura per l’esecuzione di modelli di intelligenza artificiale personalizzati, e GPU Hopper, un nuovo hardware AI in grado di migliorare l’inferenza LLM in tempo reale.

DGX Cloud offre cluster di supercomputing AI dedicati e consente alle aziende di accedere al proprio supercomputer AI tramite un semplice browser Web, eliminando la complessità associata all’acquisizione, all’implementazione e alla gestione dell’infrastruttura locale. NeMo, invece, consente alle aziende di combinare LLM con i loro dati proprietari per migliorare le applicazioni di chatbot, servizio clienti e altre applicazioni NLP. Inoltre, Nvidia ha presentato quattro GPU di inferenza ottimizzate per una vasta gamma di LLM emergenti e applicazioni di intelligenza artificiale generativa, tra cui la Nvidia H100 NVL, pensata esclusivamente per l’implementazione LLM e in grado di fornire prestazioni di inferenza fino a 12 volte più veloci a GPT-3 rispetto alla generazione precedente A100 su scala del data center.

La suite software Nvidia AI Enterprise, che include TensorRT e Triton, viene fornita con la GPU H100 NVL. Questa GPU è pensata per l’implementazione di enormi LLM su larga scala, come ChatGPT. Le altre tre GPU presentate sono la A10 NX, la A30 NX e la A100 80GB, ottimizzate per specifici carichi di lavoro di inferenza AI e dotate di software specializzato.

NeMo e DGX Cloud di Nvidia sono stati progettati per aiutare le aziende a utilizzare i modelli LLM insieme ai propri dati proprietari, migliorando l’accuratezza delle risposte generate dalle applicazioni NLP. Le aziende possono inoltre personalizzare i modelli linguistici di grandi dimensioni con conoscenze specifiche del dominio aggiornate regolarmente.

Il fondatore e CEO di Nvidia, Jensen Huang, ha dichiarato che Nvidia è attualmente “l’iPhone dell’AI” e che DGX Cloud offre ai clienti l’accesso istantaneo al supercalcolo AI di Nvidia nei cloud su scala globale. L’obiettivo di Nvidia è quello di aiutare le aziende a tenere il passo con il panorama in continua evoluzione dell’IA, sbloccando funzionalità come chatbot AI altamente accurati, motori di ricerca aziendali e strumenti di market intelligence.

Le tecnologie sono sviluppate nei gruppi di ricerca sull’IA fondamentale e applicata di Nvidia, che si concentrano sullo sviluppo responsabile di modelli di base per l’IA aziendale. L’azienda collabora con diverse aziende, tra cui ServiceNow, per sviluppare soluzioni di intelligenza artificiale personalizzate per migliorare la produttività dei lavoratori e per aiutare le aziende a creare LLM personalizzati.

In generale, Nvidia punta a rendere l’IA più accessibile e facile da utilizzare per le aziende, offrendo soluzioni cloud computing, hardware e software specializzati e il supporto degli esperti Nvidia in tutta la pipeline di sviluppo dell’IA.

Di Fantasy