Il CEO Elon Musk ha annunciato che prevede di completare l’addestramento di “Grok-2.0”, la seconda versione del Large Language Model (LLM) di xAI, entro maggio. Tuttavia, ha ammesso che ci sono state difficoltà nel processo a causa della scarsità di GPU.

Secondo quanto riportato da Reuters il 8 (ora locale), Musk ha condiviso durante un’intervista su X (Twitter) con Nikolai Tangen, CEO del fondo sovrano norvegese, le sfide affrontate dalla startup di intelligenza artificiale (AI).

Nel luglio dello scorso anno, Musk aveva annunciato che xAI stava lavorando su “Grok-2.0”, il quale avrebbe dovuto superare le prestazioni del LLM “GPT-4” di OpenAI. Il processo di addestramento ha richiesto circa 10 mesi.

È emerso che lo sviluppo è stato rallentato dalla mancanza di chip IA avanzati. Musk ha spiegato che per l’addestramento di Grok-2.0 sono necessarie circa 20.000 GPU NVIDIA ‘H100’, mentre per il prossimo modello, Grok-3, ne serviranno 100.000.

Ha anche evidenziato che, sebbene la carenza di chip sia stata finora un ostacolo significativo nello sviluppo dell’intelligenza artificiale, l’approvvigionamento di energia diventerà una sfida importante nei prossimi uno o due anni.

Rispondendo a una domanda sullo sviluppo dell’Intelligenza Generale Artificiale (AGI), Musk ha affermato che, se definiamo l’AGI come un’entità più intelligente del più intelligente essere umano, sarà probabilmente realizzabile entro il prossimo anno o due.

Tuttavia, il capo scienziato Yann LeCun Mehta ha recentemente smentito questa affermazione, dichiarando che se fosse così, avremmo anche tecnologie di guida autonoma entro l’anno successivo. Questo commento sembra essere un riferimento ironico alle dichiarazioni di Musk.

Infine, rispondendo a una domanda sui veicoli elettrici, Musk ha osservato che i produttori automobilistici cinesi sono attualmente i più competitivi al mondo, e Tesla deve affrontare questa dura concorrenza.

Di Fantasy