xAI, la società di Elon Musk, ha completato l’assemblaggio di un imponente sistema di addestramento per intelligenza artificiale (AI) chiamato “Colossus”. Questo sistema, dotato di ben 100.000 GPU NVIDIA, è ora considerato il cluster di addestramento AI più potente al mondo.
Elon Musk ha annunciato che il Colossus, che ha parzialmente iniziato a funzionare a luglio, rappresenta il sistema di addestramento AI più potente in circolazione. Questo lo rende più veloce rispetto al supercomputer Aurora del Dipartimento dell’Energia degli Stati Uniti, che ha una capacità massima di 10,6 exaflop.
Musk ha anche dichiarato che il sistema sarà ulteriormente potenziato fino a raggiungere 200.000 GPU nei prossimi mesi. Di queste, 50.000 saranno chip “H200”, la più recente e avanzata versione di chip di NVIDIA. Questi chip offrono una memoria di quinta generazione (HBM3E) e hanno prestazioni quasi doppie rispetto ai modelli precedenti.
Attualmente, xAI ha utilizzato 15.000 GPU H100 per addestrare il modello di linguaggio “Grok-2”. Il nuovo modello, “Grok-3”, sarà addestrato utilizzando il Colossus e previsto per il lancio entro la fine dell’anno.
Nel frattempo, il 26 agosto, Elon Musk ha anche presentato il supercomputer “Cortex” presso la sede di Tesla ad Austin, Texas. Questo supercomputer è progettato per supportare la guida autonoma “FSD” di Tesla e il robot umanoide “Optimus”, e include anch’esso 100.000 chip NVIDIA H100 e H200.
Inoltre, Tesla sta investendo ulteriormente in un altro supercomputer, “Dojo”, situato nella sua fabbrica di Buffalo, New York. L’azienda prevede di investire 500 milioni di dollari per potenziare questa infrastruttura.
Questi sviluppi evidenziano l’impegno di Musk e delle sue aziende nell’avanzare le tecnologie di AI e nell’espandere significativamente le capacità computazionali disponibili per i progetti futuri.