Elon Musk, CEO di xAI, ha annunciato l’intenzione di costruire il più grande cluster di GPU al mondo per l’addestramento di “Grok 3”. Questo progetto mira a competere su larga scala con OpenAI e sviluppare l’Intelligenza Generale Artificiale (AGI). Recentemente, Musk ha informato gli investitori che xAI prevede di creare un data center con 100.000 chip AI NVIDIA di ultima generazione, operativo dal prossimo autunno.
La struttura, denominata “Computing Gigafactory”, ospiterà 100.000 GPU per addestrare Grok 3. Il termine “Gigafactory” richiama la grande fabbrica di Tesla, suggerendo che il nuovo data center avrà dimensioni paragonabili.
A marzo, Meta ha annunciato la costruzione di un cluster con 24.576 unità “H100” per addestrare “Rama 3”, attualmente il cluster GPU più grande del mondo. xAI prevede di superarlo con una capacità quattro volte superiore.
Questa mossa segnala l’ingresso serio di Musk nella corsa per lo sviluppo dell’AGI. Il mese scorso, xAI ha pubblicato benchmark come “Grok-1.5V” e “RealWorldQA”, un modello multimodale, dichiarando l’intenzione di superare i limiti degli attuali modelli linguistici di grandi dimensioni (LLM). Musk ha anche affermato che l’IA supererà le capacità umane entro due anni.
Il RealWorldQA mira a valutare la comprensione spaziale del mondo reale, un elemento cruciale per lo sviluppo dell’AGI. Anche Yann LeCun di Meta e la professoressa Fei Fei Lee dell’Università di Stanford stanno conducendo ricerche simili. Altri assistenti IA come “GPT-4” di OpenAI e “Astra” di Google, capaci di riconoscere situazioni attraverso funzioni video, sono parte di questo contesto.
Musk ha quasi completato la raccolta di investimenti su larga scala per 6 miliardi di dollari, valutando xAI oltre 24 miliardi di dollari. Questi fondi saranno utilizzati per acquistare GPU. NVIDIA ha incluso xAI tra i sei principali acquirenti delle nuove GPU Blackwell, insieme a OpenAI, Amazon e Google, che verranno rilasciate nella seconda metà dell’anno.
Se il data center sarà completato nella seconda metà del prossimo anno, sarà comparabile all’infrastruttura di OpenAI. Quest’ultima, in collaborazione con Microsoft, sta costruendo un data center con centinaia di GPU e prevede di raggiungere le 100.000 GPU entro la fine del prossimo anno.
Inoltre, è stato riferito che xAI ha firmato un contratto di cloud computing da 10 miliardi di dollari con Oracle, indicando che l’azienda sta utilizzando ogni risorsa per espandere la propria infrastruttura e continuerà a raccogliere fondi tramite investimenti.