La decisione di Anthropic di prendere in affitto l’intera capacità computazionale del data center Colossus 1 di Elon Musk rappresenta uno dei più grandi accordi infrastrutturali mai realizzati nel settore dell’intelligenza artificiale generativa. L’operazione evidenzia in modo estremamente chiaro come la competizione tra i principali sviluppatori di modelli AI si stia spostando sempre più dall’innovazione algoritmica pura verso il controllo diretto delle risorse computazionali necessarie per addestrare ed eseguire modelli di grandi dimensioni. Con questo contratto, Anthropic si assicura oltre 220.000 GPU NVIDIA e più di 300 megawatt di nuova capacità di elaborazione destinata principalmente all’espansione operativa di Claude e Claude Code.

Colossus 1 era stato costruito nel 2024 da xAI come infrastruttura dedicata all’addestramento di Grok, il modello sviluppato dall’ecosistema AI di Elon Musk. La struttura era stata progettata fin dall’inizio per supportare training distribuiti su scala estrema, con cluster GPU interconnessi ad altissima banda passante e sistemi di raffreddamento ottimizzati per carichi AI continui. Il trasferimento dell’intera capacità disponibile ad Anthropic segna quindi non soltanto un accordo commerciale, ma anche una redistribuzione strategica di uno dei più grandi asset computazionali privati del settore.

La disponibilità immediata di oltre 220.000 GPU rappresenta un salto operativo enorme per Anthropic. I modelli frontier contemporanei richiedono infatti infrastrutture HPC distribuite capaci di sostenere training multimodali e inferenza ad alta concorrenza. Le GPU NVIDIA di fascia AI utilizzate in questi cluster vengono impiegate sia per l’addestramento dei modelli sia per la gestione delle richieste in tempo reale degli utenti enterprise e consumer. Il problema principale per le aziende AI non è più soltanto la qualità del modello, ma la disponibilità fisica di potenza computazionale sufficiente per sostenere domanda crescente, latenza ridotta e continuità del servizio.

L’effetto immediato dell’accordo è stato visibile direttamente sui limiti operativi di Claude. Anthropic ha annunciato il raddoppio del limite di utilizzo a finestre di cinque ore per Claude Code nei piani Pro, Max, Teams ed Enterprise, oltre alla rimozione delle restrizioni nelle ore di punta per diversi abbonamenti premium. Anche l’accesso al modello avanzato Claude Opus tramite API è stato ampliato in maniera significativa. Questo indica chiaramente che l’azienda stava già operando vicino ai limiti infrastrutturali disponibili prima dell’espansione di Colossus.

Il caso di Claude Code è particolarmente rilevante perché gli agenti di coding AI consumano una quantità di risorse molto superiore rispetto ai chatbot tradizionali. I workflow di sviluppo software richiedono infatti contesti estremamente lunghi, esecuzioni iterative, gestione persistente della memoria e capacità di reasoning multi-step che aumentano enormemente il carico inferenziale. L’esplosione della domanda per strumenti di coding agentico ha quindi trasformato il calcolo GPU in una risorsa critica strategica.

Anthropic ha inoltre chiarito che l’accordo con Colossus rappresenta soltanto una parte di una strategia infrastrutturale molto più ampia. L’azienda ha già firmato accordi per capacità AI fino a 5 gigawatt con Amazon, prevedendo di assicurarsi almeno 1 GW aggiuntivo entro la fine del 2026. Parallelamente, sta collaborando con Google e Broadcom su ulteriori 5 GW di capacità computazionale e porta avanti un progetto da circa 30 miliardi di dollari con Microsoft e NVIDIA legato all’infrastruttura Azure AI. A questi si aggiunge il piano di investimento da 50 miliardi di dollari con FluidStack, società specializzata in infrastrutture cloud per AI ad alte prestazioni.

Questi numeri mostrano chiaramente come il settore AI stia entrando in una fase di “industrializzazione energetica”. La scala delle infrastrutture necessarie per i modelli frontier viene ormai misurata in gigawatt, non più in semplici cluster server. Un singolo grande data center AI può consumare quantità di energia comparabili a quelle di intere città industriali. La disponibilità elettrica, la capacità di raffreddamento e l’accesso alle supply chain GPU stanno diventando elementi determinanti quanto la ricerca sui modelli stessi.

I moderni data center AI come Colossus utilizzano topologie di rete avanzate progettate per minimizzare la latenza inter-GPU durante il training distribuito. I modelli di nuova generazione vengono infatti addestrati tramite parallelizzazione estrema, suddividendo parametri e workload su migliaia di acceleratori simultaneamente. Questo richiede infrastrutture InfiniBand o Ethernet AI-native ad altissima velocità, storage distribuito ultra-performante e sistemi di scheduling ottimizzati per workload AI continui.

Uno degli aspetti più sorprendenti dell’accordo riguarda però il rapporto tra Anthropic ed Elon Musk. Solo pochi mesi prima, Musk aveva criticato duramente Anthropic sostenendo che sarebbe diventata una “azienda misantropica”. Il cambio di posizione successivo all’incontro diretto con i dirigenti Anthropic evidenzia come la competizione AI stia rapidamente evolvendo verso modelli di cooperazione infrastrutturale anche tra soggetti teoricamente concorrenti. Musk ha dichiarato di essere rimasto impressionato dai membri senior del team Anthropic e ha sottolineato di considerare positiva la direzione di sviluppo di Claude, purché il modello mantenga un approccio “critico e riflessivo”.

Questo cambiamento è significativo perché dimostra come l’infrastruttura computazionale stia diventando un asset separato dai modelli stessi. Le aziende AI possono competere sul piano software pur condividendo o scambiandosi capacità hardware, esattamente come avviene nel cloud computing tradizionale.

Di Fantasy