Meta ha annunciato una nuova generazione di processori dedicati all’intelligenza artificiale progettati internamente, introducendo quattro nuovi chip appartenenti alla famiglia Meta Training and Inference Accelerator (MTIA). Questi processori sono stati progettati per sostenere le crescenti esigenze computazionali delle applicazioni AI integrate nei servizi dell’azienda, tra cui sistemi di raccomandazione, generazione di contenuti e modelli linguistici utilizzati all’interno di piattaforme come Facebook, Instagram e altri prodotti dell’ecosistema Meta.
La nuova roadmap hardware comprende quattro modelli distinti, denominati MTIA 300, MTIA 400, MTIA 450 e MTIA 500, ognuno progettato per supportare diverse fasi del ciclo di vita dei modelli di intelligenza artificiale. L’introduzione di questa serie di chip rappresenta un passo importante nella strategia di Meta di sviluppare infrastrutture hardware personalizzate per l’AI, riducendo la dipendenza da fornitori esterni come Nvidia e AMD e migliorando al tempo stesso l’efficienza energetica e il costo operativo dei data center.
Negli ultimi anni, la domanda di potenza di calcolo per l’intelligenza artificiale è cresciuta in modo esponenziale. Le applicazioni di raccomandazione, pubblicità personalizzata, moderazione dei contenuti e generazione di media richiedono l’elaborazione di enormi quantità di dati in tempo reale. Nel caso di Meta, queste operazioni devono essere eseguite per miliardi di utenti che utilizzano quotidianamente le piattaforme dell’azienda. Di conseguenza, la progettazione di chip specializzati consente di ottimizzare i carichi di lavoro tipici delle applicazioni interne, ottenendo prestazioni più elevate rispetto alle architetture general-purpose.
Il primo processore della nuova generazione, MTIA 300, è già entrato in produzione e viene utilizzato per addestrare modelli di ranking e raccomandazione che determinano quali contenuti vengono mostrati agli utenti nei feed delle piattaforme social. Questi algoritmi analizzano continuamente segnali comportamentali, preferenze individuali e relazioni tra contenuti per generare classifiche dinamiche personalizzate. Il chip è quindi progettato per gestire grandi volumi di operazioni di addestramento su dati altamente dinamici.
Dal punto di vista architetturale, il MTIA 300 rappresenta la base della nuova piattaforma hardware. Il chip utilizza una struttura modulare composta da diversi chiplet computazionali e di rete, affiancati da stack di memoria ad alta larghezza di banda (HBM). Questa configurazione consente di ottenere un’elevata capacità di throughput nei calcoli matriciali tipici dei modelli di deep learning. All’interno del chip, una griglia di elementi di elaborazione combina core RISC-V con unità dedicate alla moltiplicazione di matrici, operazione fondamentale per l’addestramento delle reti neurali.
Il secondo processore della serie, MTIA 400, introduce miglioramenti significativi nelle prestazioni e nella capacità di memoria. Rispetto al modello precedente, il chip offre una maggiore larghezza di banda della memoria e un incremento della potenza di calcolo dedicata ai formati numerici utilizzati nei modelli AI moderni. Secondo Meta, questo processore è progettato per competere con i principali acceleratori commerciali disponibili sul mercato e rappresenta il primo passo verso una piattaforma hardware in grado di sostenere applicazioni generative più complesse.
Una delle caratteristiche chiave del MTIA 400 è la sua integrazione con infrastrutture di data center su larga scala. I sistemi che utilizzano questo chip possono essere configurati in rack composti da decine di acceleratori collegati tramite backplane ad alta velocità. Questa configurazione permette di costruire domini di calcolo altamente scalabili, in cui numerosi chip collaborano per addestrare o eseguire modelli di intelligenza artificiale distribuiti.
Le generazioni successive, MTIA 450 e MTIA 500, sono state progettate specificamente per ottimizzare i carichi di lavoro di inferenza associati ai modelli generativi. L’inferenza rappresenta la fase in cui un modello già addestrato produce output in risposta alle richieste degli utenti, come la generazione di testo, immagini o raccomandazioni personalizzate. In piattaforme utilizzate da miliardi di persone, questa fase può generare una domanda di calcolo ancora maggiore rispetto all’addestramento dei modelli.
Per affrontare questa sfida, i chip MTIA 450 e 500 introducono un significativo aumento della capacità di memoria ad alta larghezza di banda e nuove ottimizzazioni per i formati numerici a bassa precisione. Questi formati permettono di eseguire operazioni matematiche con un minor consumo di energia e con un throughput più elevato, mantenendo al tempo stesso un livello di precisione sufficiente per le applicazioni di inferenza AI. L’utilizzo di tecniche di calcolo a bassa precisione è diventato una delle strategie principali per migliorare l’efficienza energetica dei sistemi di intelligenza artificiale su larga scala.
Dal punto di vista delle prestazioni, ogni nuova generazione della famiglia MTIA introduce miglioramenti significativi sia nella potenza di calcolo sia nella larghezza di banda della memoria. Secondo le specifiche tecniche pubblicate da Meta, il passaggio dal MTIA 300 al MTIA 500 comporta un incremento sostanziale delle capacità computazionali e una crescita significativa della capacità di memoria HBM disponibile per ciascun acceleratore. Questo aumento è fondamentale per gestire modelli sempre più grandi e complessi, che richiedono grandi quantità di parametri e dati intermedi durante l’esecuzione.
Un altro elemento importante della strategia hardware di Meta riguarda la rapidità del ciclo di sviluppo dei chip. L’azienda ha dichiarato di voler introdurre una nuova generazione di acceleratori circa ogni sei mesi, un ritmo significativamente più veloce rispetto ai cicli tradizionali dell’industria dei semiconduttori. Questo approccio iterativo consente di adattare rapidamente l’hardware alle evoluzioni dei modelli AI, che stanno progredendo a un ritmo molto più rapido rispetto alle tecnologie di progettazione dei chip tradizionali.
La progettazione dei processori MTIA avviene in collaborazione con partner industriali specializzati nella progettazione e nella produzione di semiconduttori. Meta collabora con aziende come Broadcom per la progettazione di alcune componenti e utilizza le fonderie di TSMC per la produzione dei chip. Questo modello consente alla società di combinare competenze interne nello sviluppo di architetture AI con l’esperienza industriale necessaria per produrre hardware avanzato su larga scala.
