Google ha lanciato una mossa strategica a due punte che promette di scuotere il panorama dell’Intelligenza Artificiale, consolidando la sua posizione sia a livello hardware che di partnership con i leader della ricerca. L’annuncio ha riguardato il debutto dei suoi chip di sesta generazione, le Tensor Processing Unit (TPU) Trillium, che vantano un incremento prestazionale sbalorditivo, e la sigla di un accordo monumentale con Anthropic, l’azienda leader nello sviluppo del modello Claude. Questa duplice azione non è solo una risposta alla crescente competizione nel settore cloud e AI, ma un chiaro segnale della determinazione di Google a rimanere l’infrastruttura di riferimento per l’addestramento e l’inferenza dei modelli più avanzati al mondo.

Il cuore dell’innovazione hardware di Google è rappresentato dalle TPU Trillium, la sesta generazione dei chip personalizzati progettati specificamente per accelerare i carichi di lavoro di Machine Learning. Google ha dichiarato con enfasi che le TPU Trillium offrono un aumento delle prestazioni quattro volte superiore rispetto alla precedente generazione, le TPU v5e, in termini di calcolo e di larghezza di banda della memoria.

Questo salto prestazionale è cruciale. Man mano che i Modelli Linguistici di Grandi Dimensioni (LLM) e i modelli multimodali diventano più vasti e complessi, la necessità di potenza di calcolo, non solo in termini di velocità, ma anche di efficienza energetica e connettività tra i chip, diventa un collo di bottiglia fondamentale. Le TPU Trillium sono state progettate per affrontare proprio queste sfide. Il loro design ottimizzato e l’architettura su misura sono essenziali per supportare l’addestramento di modelli che contano miliardi o addirittura trilioni di parametri, un requisito indispensabile per i modelli di prossima generazione come GPT-5 o Claude 4. L’impegno di Google nello sviluppo interno di hardware (un modello seguito anche da Amazon con i suoi chip Inferentia e Trainium) le conferisce un vantaggio competitivo unico, permettendole di ottimizzare l’integrazione tra l’hardware e il software (il framework TensorFlow e le librerie proprietarie) per massimizzare l’efficienza.

In parallelo al lancio hardware, Google ha cementato la sua posizione nel panorama AI attraverso un accordo di proporzioni gigantesche con Anthropic, l’azienda fondata da ex dipendenti di OpenAI e sviluppatrice del modello Claude, uno dei principali rivali di GPT di OpenAI. Anthropic si è impegnata a utilizzare l’infrastruttura Google Cloud per alimentare le sue operazioni di addestramento e inferenza.

Questa collaborazione è un colpo strategico assestato direttamente a Microsoft e AWS. Anthropic utilizzerà le nuove TPU Trillium, così come le GPU di Google Cloud, per sviluppare e gestire le future iterazioni del suo LLM, consolidando Anthropic non solo come cliente, ma come partner tecnologico chiave di Google. Per Google Cloud, assicurarsi un cliente di tale calibro e di tale volume è una convalida fondamentale della superiorità della sua infrastruttura AI. Dimostra che, quando si tratta di affrontare i carichi di lavoro di addestramento più esigenti e dispendiosi in termini di calcolo, l’offerta di Google, con le sue TPU su misura, è competitiva o addirittura superiore rispetto alle offerte basate su GPU di NVIDIA, che spesso dominano le piattaforme concorrenti. L’accordo assicura a Google una parte sostanziale della crescita futura dell’AI di Anthropic, garantendo al contempo che uno dei modelli più avanzati e veloci del mondo venga eseguito sulla sua piattaforma.

Di Fantasy