Microsoft sta compiendo passi significativi per potenziare la sua infrastruttura informatica con l’annuncio di due nuovi chip progettati internamente per le aziende: Azure Maia 100 e Azure Cobalt 100.

Questi chip sono stati presentati durante la conferenza Microsoft Ignite 2023 a Seattle, uno dei più grandi eventi annuali del gigante tecnologico. Si prevede che questi chip offriranno alle aziende una potente, scalabile e sostenibile capacità di elaborazione per sfruttare al massimo le ultime innovazioni nel cloud e nell’intelligenza artificiale.

Secondo Microsoft, questi chip rappresentano l’ultimo tassello del puzzle nella sua missione di fornire infrastrutture flessibili, combinando hardware e software proprietari e di partner, ottimizzati per soddisfare una vasta gamma di esigenze di carico di lavoro.

Azure Maia è un’unità di elaborazione grafica (GPU) progettata per l’intelligenza artificiale, focalizzata sulla formazione e l’inferenza basate su cloud per carichi di lavoro di intelligenza artificiale generativa. D’altra parte, Azure Cobalt è un chip basato su Architettura Arm progettato per gestire carichi di lavoro generici in modo altamente efficiente. Entrambi questi chip saranno implementati in Azure il prossimo anno, inizialmente all’interno dei data center Microsoft che gestiranno i servizi Copilot e Azure OpenAI.

Scott Guthrie, vicepresidente esecutivo del gruppo Cloud + AI di Microsoft, ha dichiarato: “Stiamo rivoluzionando ogni aspetto dei nostri data center per soddisfare le esigenze dei nostri clienti. Data la scala con cui operiamo, è fondamentale ottimizzare ed integrare ogni livello dell’infrastruttura per massimizzare le prestazioni, diversificare la nostra catena di approvvigionamento e offrire ai clienti la possibilità di scegliere tra diverse opzioni infrastrutturali.”

Anche se Microsoft non ha condiviso dati specifici sulle prestazioni dei chip, afferma che il chip AI Maia è in grado di gestire alcuni dei carichi di lavoro AI più impegnativi su Microsoft Azure, che vanno dall’addestramento di modelli linguistici all’inferenza. Questo silicio è stato progettato su misura per l’hardware di Azure, garantendo il massimo utilizzo delle risorse hardware durante l’esecuzione di carichi di lavoro.

Microsoft ha collaborato con OpenAI per sviluppare questo acceleratore, testandolo su modelli generativi di intelligenza artificiale. Il feedback di OpenAI è stato fondamentale per apportare le necessarie ottimizzazioni.

Per quanto riguarda Azure Cobalt, le sue specifiche precise sono ancora in gran parte segrete. Tuttavia, è noto che questo chip si concentrerà sull’efficienza energetica per gestire carichi di lavoro generici su Azure. La progettazione basata su Architettura Arm assicura un’ottimizzazione per le prestazioni per watt, garantendo che i data center otterranno la massima potenza di calcolo con la minima energia consumata.

Un aspetto interessante è che, poiché questi chip sono stati progettati internamente da Microsoft, saranno installati su schede server personalizzate e inseriti in rack su misura che si adatteranno perfettamente ai data center aziendali esistenti. Ad esempio, per il rack Maia, sono stati progettati componenti aggiuntivi per garantire il raffreddamento ottimale dei chip durante l’utilizzo intensivo.

Inoltre, Microsoft offre supporto esteso per l’hardware dei partner, consentendo ai clienti di scegliere tra una varietà di opzioni in base alle loro esigenze di prestazioni e costi.

L’arrivo dei nuovi chip è previsto per l’anno successivo, con Microsoft già al lavoro sulla seconda generazione di queste soluzioni innovative.

Di Fantasy