Nel dicembre 2023, Google ha introdotto un “ipercomputer AI”, descritto come un sistema rivoluzionario per l’intelligenza artificiale che unisce hardware ottimizzato, software aperto e modelli flessibili. L’obiettivo era migliorare l’efficienza e la produttività nell’addestramento e nell’implementazione di modelli AI per i clienti di Google Cloud.
Adesso, al Google Cloud Next 2024, l’evento annuale di Google Cloud a Las Vegas, sono stati annunciati significativi aggiornamenti all’ipercomputer AI, con un numero sempre maggiore di clienti di alto profilo che ne traggono vantaggio.
Il primo aggiornamento riguarda la disponibilità generale della Tensor Processing Unit (TPU) v5p di Google Cloud, descritta come l’acceleratore AI più potente. Inoltre, Google Cloud sta aggiornando le sue macchine virtuali A3 Mega con GPU Nvidia H100 Tensor Core, offrendo prestazioni potenziate e flessibilità.
Google Cloud introduce JetStream, un nuovo motore di inferenza ottimizzato per i modelli linguistici di grandi dimensioni, per migliorare l’efficienza e ridurre i costi. Anche le soluzioni di storage vengono migliorate con funzionalità come la memorizzazione nella cache per velocizzare l’addestramento dei modelli.
Cloud Storage FUSE, Hyperdisk ML e Parallelstore offrono nuove capacità di storage e velocizzano i tempi di addestramento dei modelli. Inoltre, Google Cloud introduce Dynamic Workload Scheduler, che consente ai clienti di riservare GPU per periodi fino a 14 giorni, ottimizzando i costi.
I prezzi per questi servizi non sono stati ancora annunciati, ma Google Cloud continua a dimostrare il suo impegno nell’innovazione nell’ambito dell’IA. Resta da vedere chi adotterà questi aggiornamenti e se Google manterrà il suo supporto nel lungo termine, considerando la sua storia di chiusura di iniziative precedenti.