Modern data center

L’ascesa vertiginosa dell’Intelligenza Artificiale generativa richiede un’infrastruttura informatica di potenza senza precedenti, e la recente inaugurazione di “Project Rainier” da parte di Amazon rappresenta una risposta titanica a questa esigenza. Attraverso l’annuncio dei risultati finanziari, il 29 ottobre, Amazon ha confermato l’avvio a pieno regime di questo data center su larga scala, destinato a diventare il cuore pulsante delle operazioni di un attore chiave nel panorama dell’AI: Anthropic.

Project Rainier non è un semplice ampliamento, ma un’opera di ingegneria colossale. Il progetto prevede la connessione di ben trenta data center distribuiti su un’area di 468.000 metri quadrati, situata nei pressi di New Carlisle, in Indiana. Sebbene la costruzione sia iniziata lo scorso anno e il piano sia stato presentato al pubblico per la prima volta a giugno, il progetto è già in una fase avanzata: sette edifici sono operativi, e l’ambizione futura è quella di espandere l’impianto fino a una capacità energetica sbalorditiva di 2,2 gigawatt (GW). Questa cifra non è solo impressionante in termini assoluti, ma supera nettamente la capacità prevista di 1,2 GW per “Stargate 1”, il data center che OpenAI e Oracle stanno attualmente sviluppando, ponendo Amazon e la sua divisione Web Services (AWS) in una posizione di dominio nell’infrastruttura AI.

L’obiettivo primario di questa infrastruttura massiccia è sostenere la crescita e le operazioni del modello linguistico avanzato di Anthropic, “Claude”. Entro la fine dell’anno, Amazon prevede di impiegare oltre un milione dei suoi chip di intelligenza artificiale proprietari, i ‘Trainium2’, specificamente per l’addestramento e il funzionamento del modello di Anthropic. Questa scelta evidenzia la strategia di Amazon di puntare sulle proprie soluzioni hardware per l’AI, smarcandosi dalla dipendenza esclusiva da fornitori esterni. Matt Garman, CEO di AWS, ha sottolineato con orgoglio che Project Rainier è “una struttura operativa vera e propria” e, crucialmente, “il più grande impianto informatico del mondo non costruito esclusivamente con chip Nvidia”, evidenziando la solidità e l’efficacia del chip Trainium2 in questo contesto iper-competitivo.

La rapidità con cui Amazon è riuscita a rendere operativa questa struttura è un fattore distintivo, attribuito da Garman a “decenni di esperienza nella logistica e nelle operazioni di data center”. Questa competenza nel gestire progetti su vasta scala si è rivelata fondamentale per rispondere alla domanda insaziabile di potenza di calcolo che caratterizza l’attuale corsa all’AI.

Del resto, la domanda di risorse di Anthropic, che ha visto il suo modello cloud utilizzato da oltre 300.000 aziende e generare un fatturato annuo vicino ai 7 miliardi di dollari, è talmente forte da richiedere una strategia multi-chip. Come ha chiarito il Chief Product Officer (CPO) di Anthropic, la collaborazione con AWS e l’adozione della sua strategia multi-chip è stata essenziale per sostenere la rapida espansione osservata quest’anno. È interessante notare come Anthropic mantenga parallelamente una solida partnership anche con Google, utilizzando fino a un milione di TPU (Tensor Processing Units), a dimostrazione di come i modelli di AI più avanzati richiedano oggi un’allocazione di risorse distribuita e massiva, che trascende i confini di un singolo fornitore di cloud.

Di Fantasy