La crescente domanda di capacità computazionale per l’intelligenza artificiale sta spingendo le grandi aziende tecnologiche a investire in infrastrutture sempre più estese e dedicate. In questo contesto, Meta ha annunciato un nuovo accordo con il provider di cloud computing CoreWeave per garantire risorse di calcolo aggiuntive destinate allo sviluppo e all’esecuzione di modelli AI. L’intesa rappresenta un’espansione significativa di una collaborazione già esistente e porta il valore complessivo degli investimenti tra le due aziende a livelli estremamente elevati, evidenziando la centralità dell’infrastruttura nella competizione tecnologica.
Secondo le informazioni disponibili, Meta ha firmato un nuovo contratto del valore di circa 21 miliardi di dollari, destinato ad assicurare risorse computazionali per lo sviluppo di sistemi di intelligenza artificiale su larga scala. Questo accordo si aggiunge a impegni precedenti tra le due aziende, portando il totale cumulativo a circa 52 miliardi di dollari. L’espansione dell’investimento riflette la necessità di aumentare rapidamente la disponibilità di GPU e infrastrutture cloud per sostenere l’addestramento e l’inferenza dei modelli di nuova generazione.
L’accordo prevede l’utilizzo delle infrastrutture di CoreWeave fino al 2032, indicando una pianificazione a lungo termine della capacità computazionale. Questo tipo di contratti pluriennali è sempre più diffuso nel settore AI, dove la costruzione di data center e l’installazione di acceleratori hardware richiedono tempi lunghi e investimenti consistenti. Garantire la disponibilità futura di risorse permette alle aziende di pianificare lo sviluppo di modelli più complessi senza rischiare limitazioni operative.
L’espansione delle risorse di calcolo è necessaria per supportare modelli multimodali e sistemi di AI generativa sempre più intensivi dal punto di vista computazionale. L’addestramento di modelli di grandi dimensioni richiede cluster di GPU interconnessi ad alta velocità, sistemi di storage distribuito e infrastrutture di rete dedicate. L’aumento della capacità non riguarda quindi solo il numero di acceleratori, ma anche l’intero ecosistema hardware necessario per garantire prestazioni stabili.
CoreWeave, originariamente specializzata in servizi GPU cloud, è diventata uno dei principali fornitori di capacità computazionale per aziende AI. La sua infrastruttura è progettata per carichi di lavoro ad alta intensità, con cluster di GPU ottimizzati per addestramento e inferenza. La collaborazione con Meta consente di utilizzare queste risorse per accelerare lo sviluppo di modelli avanzati e per supportare servizi basati su AI destinati a un’ampia base di utenti.
L’espansione dell’accordo evidenzia anche la crescente competizione tra le grandi aziende tecnologiche per assicurarsi accesso prioritario alle risorse hardware. La disponibilità di GPU di fascia alta è diventata un fattore strategico, poiché la produzione non riesce sempre a soddisfare la domanda globale. Le aziende stanno quindi stipulando contratti pluriennali per garantirsi capacità computazionale dedicata, riducendo il rischio di carenze infrastrutturali.
