Meta ha recentemente annunciato il rilascio di due nuovi modelli di intelligenza artificiale multimodali a peso aperto: Llama 4 Scout e Llama 4 Maverick. Questi modelli sono ora disponibili per il download su llama.com e sulla piattaforma Hugging Face, oltre ad essere accessibili tramite i prodotti Meta AI su WhatsApp, Messenger, Instagram Direct e il sito web di Meta AI.
Entrambi i modelli, Llama 4 Scout e Llama 4 Maverick, sono basati su un’architettura “mixture-of-experts” (MoE), rendendoli i modelli più avanzati rilasciati da Meta fino ad oggi. Llama 4 Scout dispone di 17 miliardi di parametri attivi e 16 esperti, progettato per adattarsi a una singola GPU H100. Secondo Meta, supporta una finestra di contesto di 10 milioni di token, consentendo compiti complessi come la sintesi di più documenti e il ragionamento su ampi basi di codice.
Meta ha dichiarato: “Scout è il nostro modello più efficiente nella sua classe. Offre prestazioni che superano Llama 3 pur essendo più scalabile.” Il modello ottiene risultati migliori rispetto a sistemi concorrenti, tra cui Gemma 3, Gemini 2.0 Flash-Lite e Mistral 3.1, su benchmark ampiamente riconosciuti.
Llama 4 Maverick, anch’esso un modello con 17 miliardi di parametri attivi ma con 128 esperti, è progettato per casi d’uso di fascia alta. Include un totale di 400 miliardi di parametri e si comporta in modo competitivo con modelli più grandi come DeepSeek V3 in compiti di ragionamento e coding. Meta ha affermato che Maverick supera GPT-4o e Gemini 2.0 Flash su diversi benchmark, ottenendo un punteggio ELO di 1417 su LMArena in impostazioni di chat sperimentali.
Il CEO di Meta, Mark Zuckerberg, ha descritto Maverick come il “cavallo di battaglia”, costruito per compiti su larga scala. Ha dichiarato che “batte GPT-4o e Gemini Flash 2 su tutti i benchmark” pur rimanendo “più piccolo e più efficiente di DeepSeek-V3.”
Questi modelli rappresentano un passo avanti nell’equilibrio tra prestazioni e costi. Maverick può funzionare su un singolo host H100 o scalare per inferenze distribuite, offrendo flessibilità agli sviluppatori. I modelli sono stati distillati da Llama 4 Behemoth, un modello insegnante ancora non rilasciato che è anch’esso un modello multimodale “mixture-of-experts”, con 288 miliardi di parametri attivi, 16 esperti e quasi due trilioni di parametri totali. Behemoth è ancora in fase di addestramento ma ha già dimostrato risultati di alto livello su benchmark STEM come MATH-500 e GPQA Diamond, superando GPT-4.5, Claude Sonnet 3.7 e Gemini 2.0 Pro.
Meta ha sottolineato l’importanza strategica dell’apertura in questo rilascio, indicando che questi modelli rappresentano un passo significativo nell’equilibrio tra prestazioni e costi, offrendo agli sviluppatori flessibilità e accesso a tecnologie AI avanzate.