L’ecosistema AI legato a Elon Musk sta attraversando una fase di profonda trasformazione strategica nella quale l’attenzione sembra spostarsi progressivamente dalla competizione diretta sui modelli linguistici frontier verso il controllo dell’infrastruttura computazionale necessaria a sostenere l’intelligenza artificiale su larga scala. Negli ultimi mesi xAI e il modello Grok hanno infatti perso visibilità rispetto ai principali concorrenti del mercato, mentre l’azienda sta aumentando fortemente il proprio impegno sul fronte data center, GPU cluster e capacità infrastrutturale.
Il rallentamento emerge sia sul piano tecnico sia su quello commerciale. Secondo diverse analisi di benchmark pubblicate nelle ultime settimane, le versioni più recenti di Grok non sono riuscite a mantenere il passo dei modelli frontier sviluppati da OpenAI, Anthropic, Google e dai principali laboratori cinesi. In particolare, Grok 4.3 avrebbe mostrato risultati inferiori rispetto a diversi modelli asiatici emergenti nei ranking di reasoning e coding pubblicati dalle piattaforme indipendenti di valutazione AI.
Anche la crescita dell’ecosistema consumer starebbe rallentando. I dati di mercato riportati nel settore mostrano una significativa riduzione dei download dell’app Grok rispetto ai picchi registrati nei primi mesi dell’anno, quando il modello aveva attirato forte attenzione mediatica grazie all’integrazione diretta con X e ad alcune funzionalità particolarmente controverse introdotte nelle versioni iniziali. Contestualmente, la penetrazione enterprise di xAI rimane molto distante dai livelli raggiunti da OpenAI, Anthropic e Google nel mercato corporate statunitense.
Inoltre, xAI starebbe accelerando la propria trasformazione infrastrutturale. Uno degli elementi più discussi riguarda il gigantesco data center “Colossus”, costruito nel Tennessee per ospitare centinaia di migliaia di GPU NVIDIA dedicate all’addestramento e all’inferenza dei modelli AI. Secondo diverse ricostruzioni del settore, l’azienda starebbe valutando sempre più seriamente il ruolo di provider infrastrutturale AI oltre a quello di semplice sviluppatore di modelli linguistici.
La questione è particolarmente rilevante perché il mercato frontier AI sta entrando in una fase nella quale il vero vantaggio competitivo dipende sempre meno soltanto dall’architettura del modello e sempre più dall’accesso a energia, networking, GPU e data center hyperscale. L’addestramento dei sistemi AI più avanzati richiede ormai infrastrutture comparabili a quelle dei grandi cloud provider globali, con investimenti da decine di miliardi di dollari e consumi energetici enormemente superiori rispetto alla generazione precedente di large language model.
In questo scenario, Musk sembrerebbe puntare su una strategia differente rispetto ai concorrenti principali. Invece di concentrarsi esclusivamente sulla rincorsa ai benchmark dei modelli frontier, xAI starebbe cercando di costruire una posizione dominante sul controllo dell’infrastruttura computazionale necessaria alla futura economia AI. Questa scelta sarebbe coerente anche con la recente riorganizzazione societaria che ha portato all’integrazione più stretta tra xAI, X e altre attività tecnologiche dell’ecosistema Musk.
Il cambiamento avviene inoltre in un momento particolarmente complesso per l’azienda. Diversi membri fondatori e ricercatori senior avrebbero lasciato xAI negli ultimi mesi, mentre la società continua a fronteggiare pressioni economiche molto elevate legate ai costi GPU e alla monetizzazione dell’infrastruttura AI. Proprio per questo stanno aumentando le ipotesi secondo cui il gruppo potrebbe puntare sempre più su servizi infrastrutturali e capacità computazionale condivisa per sostenere economicamente la crescita futura.
La situazione evidenzia anche una trasformazione più ampia dell’intero mercato AI globale. La fase iniziale della competizione era dominata quasi esclusivamente dalla qualità dei modelli linguistici e dai benchmark cognitivi; oggi, invece, il controllo delle risorse infrastrutturali sta diventando centrale quanto il modello stesso. GPU, energia elettrica, raffreddamento, networking ad altissima velocità e supply chain dei semiconduttori rappresentano ormai asset strategici decisivi per qualunque azienda voglia restare nella corsa frontier AI.
Anche altri grandi operatori stanno seguendo la stessa direzione. Google sta ampliando aggressivamente l’infrastruttura TPU proprietaria, Microsoft continua a investire massicciamente nei cluster Azure AI, mentre Meta e Amazon stanno costruendo nuove reti hyperscale dedicate all’intelligenza artificiale. In questo contesto, la strategia di Musk potrebbe rappresentare non tanto un abbandono della corsa ai modelli, quanto un tentativo di anticipare il prossimo livello della competizione AI globale: il controllo dell’infrastruttura che renderà possibile l’AGI su scala industriale.
