Huawei ha svelato Flex:ai, un nuovo software open source che potrebbe rappresentare un punto di svolta strategico per l’azienda e per l’intero settore tecnologico cinese. Presentato in un evento a Shanghai, Flex:ai è un gestore di risorse di calcolo progettato per massimizzare le prestazioni nell’apprendimento dell’Intelligenza Artificiale, permettendo a Huawei di raggiungere capacità di livello mondiale anche in presenza di restrizioni sull’accesso alle più recenti e potenti GPU di Nvidia. La mossa è un tentativo chiaro e ambizioso di superare le limitazioni hardware attraverso l’ottimizzazione software, rafforzando l’ecosistema domestico.
La necessità di un software come Flex nasce da una fondamentale inefficienza nell’infrastruttura di calcolo AI. Come spiegato da Zhou Weifeng, Vicepresidente di Huawei Storage, la realtà è che le attività di training più piccole non riescono a sfruttare appieno la potenza di una singola GPU, mentre i compiti più esigenti superano la capacità di una singola unità. Flex è stato sviluppato proprio per risolvere queste inefficienze, liberando il potenziale latente dell’infrastruttura AI esistente.
Flex:ai è progettato per integrare e gestire in modo coerente acceleratori di Intelligenza Artificiale di diversa natura, come le GPU e le NPU (Network Processing Unit). La sua architettura consente di distribuire efficientemente i processori di più produttori e, cosa cruciale, è in grado di suddividere un singolo chip in risorse di elaborazione virtuali multiple. Questo meccanismo permette l’esecuzione simultanea di attività AI parallele, migliorando significativamente l’utilizzo delle risorse. Huawei sostiene che Flex possa migliorare l’utilizzo medio del processore di un notevole trenta per cento.
Il cuore operativo di Flex è il suo scheduler dedicato, “Hi Scheduler”, che alloca automaticamente le risorse GPU e NPU in base alle esigenze dei carichi di lavoro. Include anche una funzionalità avanzata che raggruppa dinamicamente le risorse di calcolo inattive provenienti da diversi nodi, riassegnandole in modo flessibile alle attività di Intelligenza Artificiale che ne hanno bisogno.
L’annuncio di Flex si inserisce in un contesto strategico ben definito, dove le aziende tecnologiche cinesi sono costrette a ottimizzare il software per aggirare i limiti imposti sulle forniture di chip avanzati. La scelta di rilasciare Flex come open source, attraverso la community di sviluppatori ModelEngine di Huawei, non è casuale.
Zhou Weifeng ha chiaramente espresso la necessità di una partecipazione diffusa, sottolineando che “far funzionare correttamente l’intelligenza artificiale nel mondo reale non è facile” e che gli ingegneri Huawei non possono riuscirci da soli. Sollecitando la collaborazione aperta, Huawei cerca di accelerare la diffusione dello sviluppo dell’AI e di creare un ecosistema software robusto e decentralizzato che possa competere con le piattaforme consolidate all’estero. Non a caso, lo sviluppo di Flex ha coinvolto ricercatori di prestigiose istituzioni accademiche cinesi come l’Università Jiaotong di Shanghai, l’Università Jiaotong di Xi’an e l’Università di Xiamen.
Questo approccio strategico è già stato adottato da Huawei in passato: lo scorso agosto, l’azienda aveva reso open source la sua piattaforma software per chip AI, “CANN (Compute Architecture for Neural Networks)”, con l’obiettivo esplicito di contrastare l’ecosistema chiuso e dominante CUDA di Nvidia, che è lo standard de facto per lo sviluppo dell’Intelligenza Artificiale. Il coordinamento delle attività AI su cluster GPU su larga scala tramite Flex è un approccio che ricorda da vicino quello di Run:ai, la startup israeliana acquisita da Nvidia nel 2024 per rafforzare proprio la gestione dei carichi di lavoro.
La strategia di riduzione della dipendenza tecnologica da fornitori stranieri si estende anche ad altri componenti hardware cruciali. Per esempio, Huawei ha rafforzato le sue capacità di gestione della memoria ad alta larghezza di banda (HBM), un componente chiave per le prestazioni dell’AI. Ha introdotto “UCM (Unified Cache Manager)”, un sistema che mira a migliorare le prestazioni di inferenza dell’AI allocando in modo estremamente efficiente i dati per livello di memoria.
