Non c’è dubbio che NVIDIA detenga una posizione dominante nel campo dell’intelligenza artificiale con i suoi chip e le sue GPU. Tuttavia, il futuro potrebbe portare una sfida inaspettata, data la crescente concorrenza che sta emergendo in questo settore. Inoltre, anche i clienti di NVIDIA stanno cercando di sviluppare le proprie capacità.
Un recente sviluppo intrigante è l’investimento di Microsoft in una startup di chip AI chiamata d-Matrix, che ha appena raccolto 110 milioni di dollari in un round di finanziamento di serie B. Il CEO di d-Matrix, Sid Sheth, ha sottolineato che questo finanziamento proviene da investitori con una profonda comprensione del settore dei semiconduttori e che sono disposti a impegnarsi a lungo termine.
Ciò che rende la situazione ancora più interessante è l’affermazione di Corsair C8, la piattaforma di elaborazione di d-Matrix, secondo cui può sostituire le GPU NVIDIA H100, attualmente leader del settore. Ancora più sorprendente, d-Matrix afferma che il suo sistema offre un throughput 9 volte superiore rispetto a H100 e addirittura 27 volte rispetto a A100.
La spiegazione di d-Matrix sottolinea che le GPU NVIDIA non sono ottimizzate per le attività di inferenza per il Machine Learning. L’uso di queste costose GPU di fascia alta per le operazioni di inferenza comporta un consumo eccessivo di energia, rendendo il loro utilizzo poco conveniente per molte aziende alla ricerca di alternative.
Va notato che Microsoft non è l’unico attore che cerca di sviluppare chip AI. Anche aziende come Meta, Google, IBM e Amazon hanno investito in questo settore, sostenendo che i loro chip sono superiori a quelli di NVIDIA, ma finiscono comunque per fare affidamento su NVIDIA a lungo termine.
Secondo Elon Musk, molte aziende stanno lavorando su chip AI, ma poche stanno effettivamente cercando di creare alternative a NVIDIA. Alcune startup si concentrano sull’inferenza, ma è difficile competere con l’enorme infrastruttura di NVIDIA. Inoltre, Tesla sta sviluppando il chip Dojo, ma non sembra destinato a competere direttamente con NVIDIA, dato che Tesla ha già un’enorme base di GPU per addestrare i suoi modelli AI.
Negli ultimi anni, alcune startup hanno tentato di sfidare NVIDIA, ma spesso hanno modificato i loro piani per concentrarsi sullo sviluppo di alternative software a CUDA di NVIDIA, la piattaforma per l’elaborazione AI.
Tuttavia, c’è una carenza di GPU per il calcolo ad alte prestazioni (HPC), che potrebbe continuare per un altro anno e mezzo, secondo TSMC. Questo potrebbe spingere NVIDIA a concentrarsi su GPU meno potenti ottimizzate per l’inferenza e il fine-tuning, anziché sulla costruzione di modelli di addestramento.
L’investimento di Microsoft in d-Matrix suggerisce che l’azienda potrebbe orientarsi verso la fornitura di soluzioni di inferenza più economiche per i propri clienti, abbandonando la corsa alla creazione di nuovi modelli. Anche i recenti commenti di OpenAI sul ritardare l’annuncio di GPT-5 fino a novembre potrebbero indicare che si sta rallentando la creazione di nuovi modelli.
In definitiva, NVIDIA offre funzionalità di inferenza tramite il suo servizio DGX Cloud, ma il prezzo potrebbe essere una barriera per alcuni. Tuttavia, con la prossima GPU L40, che si concentra sull’efficienza energetica per l’inferenza, NVIDIA sembra avere un piano solido. È evidente che questa azienda di successo sa esattamente cosa sta facendo.
Citando il CEO di NVIDIA, Jensen Huang, sulla concorrenza e la carenza di GPU nella Silicon Valley: “C’è di più, venite a prenderli. Tutti dovrebbero vincere.” Ma al momento, NVIDIA sembra destinata a continuare la sua serie di vittorie, nonostante gli sforzi di Microsoft e degli altri attori del settore. Certamente, c’è ancora molto da scoprire nell’evoluzione di questa situazione.