NVIDIA ha recentemente annunciato i suoi piani per il lancio di una nuova generazione di GPU per data center, successiva all’attuale unità di elaborazione grafica (GPU) “H100”. L’azienda è impegnata ad accelerare lo sviluppo di nuove architetture GPU per mantenere il proprio primato nell’intelligenza artificiale (AI) e nell’ambito del calcolo ad alte prestazioni (HPC).
Secondo quanto riportato da Tom’s Hardware, NVIDIA ha presentato questi piani durante una riunione con gli investitori all’inizio di questo mese. L’obiettivo è quello di lanciare le nuove GPU per data center denominate “B100” e “X100” rispettivamente nel 2024 e nel 2025.
NVIDIA intende ridurre il ciclo di rilascio dei prodotti da due a un solo anno, al fine di consolidare la sua posizione leader nel settore dei data center. In questo contesto, “Blackwell” è prevista come l’architettura successiva a “Hopper” nel 2024, mentre una nuova architettura denominata “X” sarà introdotta nel 2025.
NVIDIA prevede di presentare un nuovo prodotto basato sull’architettura Hopper l’anno prossimo, prima del lancio del prodotto Blackwell. Questo includerà H200, che migliorerà le prestazioni della GPU H100, e “GH200NVL”, che combinando CPU basate su ARM e GPU Hopper, si concentrerà sull’apprendimento e l’inferenza dei modelli di lingua di grandi dimensioni (LLM).
Per quanto riguarda la famiglia Blackwell, prevista per il 2024, NVIDIA sta lavorando sulla GPU B100, destinata all’elaborazione AI e HPC su piattaforme x86. Inoltre, stanno sviluppando il modulo Grace Blackwell “GB200” per l’inferenza, che incorpora CPU ARM e GPU Blackwell, e “GB200NVL” per l’apprendimento e l’inferenza LLM. È inoltre in fase di progettazione una soluzione basata su GPU client per l’inferenza AI denominata “B40”.
Un punto rilevante è che per la produzione delle GPU Blackwell verrà utilizzato il processo a 3 nanometri di TSMC, e le prime spedizioni sono programmate per la fine del 2024. Questa rappresenterà la prima GPU a utilizzare un design chiplet.
Nel 2025, NVIDIA prevede di introdurre una nuova architettura identificata con la lettera “X”, che prenderà il posto di Blackwell. La gamma includerà la GPU “X100” per l’apprendimento e l’inferenza AI x86, “GX200” che combina CPU ARM e GPU Blackwell, e “GX200NVL” per l’apprendimento e l’inferenza LLM. Vi sarà anche una soluzione basata su GPU client per l’inferenza AI più economica denominata “X40”.
Attualmente, NVIDIA mantiene una posizione di leadership nel mercato delle GPU AI, ma è consapevole della crescente concorrenza da parte di altri attori come AWS, Google, Microsoft, AMD e Intel, tutti impegnati nello sviluppo di processori di prossima generazione per l’AI e l’HPC. Per questo motivo, NVIDIA sta accelerando lo sviluppo dei prodotti basati su B100 e X100.
Inoltre, è importante notare che NVIDIA ha già effettuato preacquisti di linee di produzione da TSMC e memorie HBM per rafforzare ulteriormente la sua posizione dominante nel mercato. L’azienda sta anche espandendo il suo interesse nel settore dell’intelligenza artificiale aziendale attraverso lo sviluppo di server come “HGX” e “MGX”.