Meta ha recentemente introdotto la sua quarta generazione di modelli di linguaggio, denominata Llama 4, segnando un ulteriore passo avanti nel campo dell’intelligenza artificiale. Questi modelli sono progettati per affrontare sfide più complesse e offrire prestazioni superiori rispetto ai predecessori.​

Due modelli principali, Llama 4 Scout e Llama 4 Maverick, sono stati rilasciati al pubblico. Il Llama 4 Scout è un modello compatto, in grado di funzionare su una singola GPU Nvidia H100, con una finestra di contesto di 10 milioni di token. Questo gli consente di superare diversi benchmark, dimostrando prestazioni superiori rispetto a modelli concorrenti come Google Gemma 3 e Mistral 3.1. Il Llama 4 Maverick, più grande, offre prestazioni paragonabili a modelli avanzati come GPT-4o e DeepSeek-V3 in compiti di codifica e ragionamento, utilizzando però meno parametri attivi. ​

In fase di sviluppo, il Llama 4 Behemoth promette di essere il modello più potente della serie, con 288 miliardi di parametri attivi e un totale di 2 trilioni. Le prime anticipazioni suggeriscono che supererà modelli come GPT-4.5 e Claude Sonnet 3.7 in vari benchmark STEM, offrendo potenzialità senza precedenti per applicazioni future. ​

Meta ha ribadito il suo impegno verso l’open source, rendendo disponibili i modelli Llama 4 per la comunità globale di sviluppatori e ricercatori. Tuttavia, è importante notare che l’utilizzo commerciale dei modelli è soggetto a restrizioni, in particolare per le entità con oltre 700 milioni di utenti mensili attivi, che devono richiedere l’autorizzazione a Meta. ​

Inoltre, Meta ha avviato collaborazioni con importanti attori del settore tecnologico, come Intel, per garantire che i modelli Llama 4 siano ottimizzati per una vasta gamma di hardware, inclusi gli acceleratori AI Gaudi 3 e i processori Xeon. Questa sinergia mira a garantire che gli utenti possano sfruttare appieno le capacità dei modelli Llama 4 su diverse piattaforme.

Di Fantasy