Le grandi aziende tecnologiche, tra cui Intel, Google, Microsoft e Meta, hanno unito le forze per espandere l’uso dell’intelligenza artificiale (AI) nei data center. L’obiettivo è ridurre la dipendenza da Nvidia in questo settore.
Secondo quanto riportato da Tom’s Hardware, aziende come AMD, Broadcom, Cisco, Google, HPE, Intel, Meta e Microsoft hanno collaborato per creare uno standard chiamato “Ultra”, che permette una connessione ad alta velocità e bassa latenza per gli acceleratori AI e i calcolatori ad alte prestazioni (HPC) nei data center. Questo standard prevede lo sviluppo di un’interfaccia denominata “Accelerator Link (UALink)”.
L’obiettivo di UALink è definire uno standard aperto che consenta agli acceleratori di AI di comunicare in modo efficiente tra loro. La specifica iniziale, la versione 1.0 di UA Link, permette di collegare fino a 1024 acceleratori all’interno di un pod di elaborazione AI su una rete a bassa latenza. Questo migliora le prestazioni e l’efficienza consentendo il trasferimento diretto dei dati tra i vari acceleratori, come ad esempio le GPU “Instinct” di AMD o “Gaudi” di Intel.
Le aziende coinvolte, tra cui AMD, Broadcom, Google, Intel, Meta e Microsoft, stanno tutte sviluppando i propri acceleratori di intelligenza artificiale. Questa collaborazione nel consorzio UALink mira a standardizzare l’infrastruttura dei chip per semplificare l’integrazione e la scalabilità dei sistemi AI nei data center.
Anche se la tecnologia UA Link è simile alla tecnologia ‘NV Link’ di NVIDIA, quest’ultima ha preferito non partecipare allo sviluppo di UALink, poiché già dispone della propria tecnologia.
Il lancio ufficiale del Consorzio UALink, che supervisionerà lo sviluppo e l’implementazione dello standard UALink, è previsto per il terzo trimestre. Questo standard mira a promuovere un ecosistema aperto e facilitare lo sviluppo di soluzioni AI e HPC su larga scala.