Meta, l’ex Facebook, è stato un pioniere nell’utilizzo dell’intelligenza artificiale (IA) per alimentare i suoi servizi come News Feed, Facebook Ads, Messenger e realtà virtuale. Tuttavia, con l’aumento della richiesta di soluzioni IA più avanzate e scalabili, c’è la necessità di un’infrastruttura IA più innovativa ed efficiente.
All’evento AI Infra @ Scale, una conferenza virtuale ospitata dai team di ingegneria e infrastruttura di Meta, l’azienda ha annunciato una serie di nuovi progetti hardware e software volti a supportare la prossima generazione di applicazioni AI. Durante l’evento, i relatori di Meta hanno condiviso le loro intuizioni ed esperienze sulla costruzione e l’implementazione di sistemi di intelligenza artificiale su larga scala.
Tra gli annunci c’è un nuovo design per i data center dedicati all’IA, ottimizzati sia per l’addestramento che per l’inferenza dell’IA, le due fasi principali nello sviluppo e nell’esecuzione dei modelli di intelligenza artificiale. I nuovi data center faranno uso del Meta training and inference accelerator (MTIA), un chip sviluppato da Meta, che accelererà i carichi di lavoro dell’intelligenza artificiale in diversi ambiti, come la visione artificiale, l’elaborazione del linguaggio naturale e i sistemi di raccomandazione.
Meta ha anche svelato di aver creato il Research Supercluster (RSC), un supercomputer dedicato all’IA che include 16.000 GPU, utilizzate per addestrare modelli di linguaggio di grandi dimensioni come il progetto LLaMA, annunciato da Meta alla fine di febbraio.
“Da anni stiamo costruendo infrastrutture avanzate per l’intelligenza artificiale e questo lavoro riflette gli sforzi a lungo termine che ci permetteranno di compiere ulteriori progressi e utilizzare al meglio questa tecnologia in tutto ciò che facciamo”, ha dichiarato il CEO di Meta, Mark Zuckerberg.
Meta non è l’unico grande attore nel settore IT ad avere una propria infrastruttura AI dedicata. A novembre, Microsoft e Nvidia hanno annunciato una partnership per un supercomputer AI nel cloud, che sfrutta le GPU Nvidia e la tecnologia di rete Quantum 2 InfiniBand di Nvidia.
Pochi mesi dopo, a febbraio, IBM ha presentato i dettagli del suo supercomputer AI, chiamato Vela. Il sistema IBM utilizza il silicio x86 insieme alle GPU Nvidia e alle reti basate su Ethernet. Ogni nodo del sistema Vela è equipaggiato con otto GPU A100 da 80 GB, con l’obiettivo di sviluppare nuovi modelli di base per soddisfare le esigenze dell’IA aziendale.
Anche Google è entrata nella corsa dei supercomputer AI con un annuncio il 10 maggio. Il sistema di Google sfrutta le GPU Nvidia insieme alle unità di elaborazione dell’infrastruttura (IPU), progettate su misura per garantire un rapido flusso di dati.
Meta sta ora entrando nel settore del silicio personalizzato con il suo chip MTIA. L’utilizzo di chip di inferenza AI personalizzati non è una novità, Google ha sviluppato la sua unità di elaborazione tensoriale (TPU) da diversi anni e Amazon ha i propri chip AWS Inferentia dal 2018.
Per Meta, la necessità di inferenza AI riguarda diversi aspetti delle sue operazioni sui siti di social media, inclusi i feed di notizie, i ranking, la comprensione dei contenuti e le raccomandazioni. In un video che illustra il chip MTIA, il ricercatore di Meta per le infrastrutture Amin Firoozshahian ha spiegato che le CPU tradizionali non sono progettate per gestire le richieste di inferenza delle applicazioni eseguite da Meta. Questo è il motivo per cui l’azienda ha deciso di sviluppare il proprio chip personalizzato.
Meta è anche un grande utilizzatore del framework di machine learning (ML) open source PyTorch, che ha originariamente creato. Dal 2022, PyTorch è gestito dall’organizzazione PyTorch Foundation della Linux Foundation. Parte dell’obiettivo con il chip MTIA è quello di avere un silicio altamente ottimizzato per l’esecuzione su larga scala di carichi di lavoro PyTorch.
Il chip MTIA di Meta è realizzato con un processo di produzione a 7 nm (nanometri) e può fornire fino a 102,4 TOPS (trilioni di operazioni al secondo). MTIA fa parte di un approccio altamente integrato all’interno di Meta per ottimizzare le operazioni di intelligenza artificiale, compresi il networking, l’ottimizzazione dei data center e l’efficienza energetica.
Meta ha costruito i suoi data center per oltre un decennio per soddisfare le esigenze dei suoi miliardi di utenti. Finora, sono stati efficienti, ma la crescente richiesta di intelligenza artificiale richiede una maggiore capacità di calcolo. Meta prevede che i chip AI dovrebbero consumare più di 5 volte la potenza dei tipici server CPU di Meta in futuro. Questa aspettativa ha spinto Meta a riconsiderare il raffreddamento dei data center e ad adottare il raffreddamento a liquido per garantire l’efficienza energetica necessaria. Consentire il giusto raffreddamento e alimentazione per abilitare l’IA è la forza trainante di questi nuovi progetti di data center di Meta.