In passato, se un’azienda avesse ricevuto un computer dieci volte più potente, non avrebbe saputo come sfruttarlo appieno. Tuttavia, oggi ogni azienda cerca di acquisire il cluster informatico più grande possibile, anche se potrebbe non avere ancora un piano definito su come utilizzarlo. Alcune aziende potrebbero persino generare guadagni in base al numero di computer di cui dispongono.
L’evoluzione è evidente anche nel campo dell’intelligenza artificiale. Le aziende non si limitano più a sviluppare questa tecnologia, ma usano l’H100, una sorta di “valuta accumulata”, per ottenere qualcosa di prezioso: più unità di elaborazione grafica (GPU). Un nuovo attore nel settore del cloud computing, CoreWeave, ha recentemente chiuso un accordo di debito di 2,3 miliardi di dollari basato sul valore delle ambite GPU H100 di NVIDIA. Questo accordo mira a finanziare l’acquisto di ulteriori chip premium e iniziative strategiche.
Quindi, ciò che era originariamente un investimento di NVIDIA in CoreWeave, ha creato un loop interessante. Le stesse GPU prodotte da NVIDIA sono ora utilizzate come garanzia per ottenere più GPU, potenzialmente provenienti dall’inventario della stessa NVIDIA. Questo processo è notevole, poiché dimostra come il valore delle risorse tecnologiche possa essere sfruttato in modo creativo.
CoreWeave, inizialmente focalizzata sull’estrazione di Ethereum tramite GPU NVIDIA, ha ora riorientato queste GPU per alimentare l’infrastruttura cloud che supporta l’intelligenza artificiale. Questo approccio di riuso e riconversione delle risorse è un esempio di come le tecnologie possano essere adattate per sostenere diverse iniziative.
Un altro esempio è AWS Lambda, che sta accumulando GPU H100 per supportare le proprie operazioni. Addirittura Elon Musk sta accumulando 10.000 GPU per il suo progetto di intelligenza artificiale.
NVIDIA ha finanziato numerose aziende di intelligenza artificiale, creando una sinergia tra il profitto derivante dall’intelligenza artificiale stessa e l’acquisto di GPU da parte delle aziende. D’altra parte, le aziende sono felici di ottenere finanziamenti per creare prodotti di intelligenza artificiale più avanzati, quindi non c’è limite alla potenza di calcolo desiderata: più ne hanno, meglio è.
La carenza di GPU è un problema serio, tanto che “chi ottiene quante GPU” è un argomento caldo nella Silicon Valley. La sfida è per NVIDIA nel trovare una strategia per gestire questa carenza.
La dinamica cambierà quando NVIDIA rilascerà le GPU GH200, tre volte più potenti degli attuali H100, nel secondo trimestre del 2024. Tuttavia, non è chiaro quanto questa transizione sarà vantaggiosa. Le aziende si orienteranno verso le nuove GPU GH200, causando un surplus di H100 che potrebbe essere venduto ad altre società. Questo potrebbe anche portare a un monopolio delle grandi aziende, come OpenAI e Google, nel mercato delle GPU.
Tuttavia, questa situazione di mercato cambierà solo l’anno prossimo. Nel frattempo, le GPU continueranno a essere utilizzate per alimentare la creazione di modelli di intelligenza artificiale, simile a come gli sviluppatori usano le GPU consumer per gli stessi scopi.
Insomma, le GPU hanno assunto un ruolo di valore nella scena tecnologica attuale. Poiché l’acquisto di nuove GPU è difficile, le aziende tecnologiche stanno scambiando GPU tra di loro per sostenere i loro progetti di intelligenza artificiale. Questa dinamica evidenzia come le risorse tecnologiche possano diventare risorse di valore, anche senza essere fisicamente utilizzate.