Il giorno dopo il rilascio di Llama 3.1, Mistral AI ha annunciato Mistral Large 2, l’ultima versione del loro modello di punta. Questo modello offre miglioramenti significativi nella generazione di codice, nelle capacità matematiche e nel supporto multilingue. Con una finestra di contesto di 128k e il supporto per decine di lingue, tra cui francese, tedesco, spagnolo e cinese, Mistral Large 2 è progettato per soddisfare esigenze linguistiche diverse e supporta oltre 80 linguaggi di programmazione come Python, Java e C++.
Mistral Large 2 è stato rilasciato sotto la licenza di Mistral per la ricerca e l’uso non commerciale. Il modello raggiunge una precisione dell’84,0% sul benchmark MMLU, stabilendo un nuovo standard di prestazioni ed efficienza dei costi nei modelli open source. Nella generazione e nel ragionamento del codice, compete con i principali modelli come GPT-4 e Llama 3.
Il modello è stato addestrato per ridurre le allucinazioni e garantire risultati accurati, migliorando significativamente le capacità di ragionamento e risoluzione dei problemi. Mistral Large 2 eccelle anche nei benchmark come MT-Bench, Wild Bench e Arena Hard, grazie a miglioramenti nelle funzionalità di seguire le istruzioni e nelle conversazioni. Il modello è particolarmente adatto per applicazioni aziendali complesse grazie alle sue competenze avanzate di chiamata di funzione.
Gli utenti possono accedere a Mistral Large 2 attraverso la piattaforma Mistral sotto il nome mistral-large-2407. Mistral AI sta espandendo la sua offerta per includere altri modelli come Mistral Nemo, Mistral Large, Codestral ed Embed. Il modello è disponibile attraverso partnership con Google Cloud Platform, Azure AI Studio, Amazon Bedrock e IBM Watsonx.i, migliorando l’accessibilità e lo sviluppo delle applicazioni a livello globale.
Mistral AI ha anche rilasciato recentemente altri modelli come Mathotral, progettato per il ragionamento matematico avanzato, e Codestral Mamba 7B, un modello per la generazione di codice basato sull’architettura avanzata di Mamba 2. Inoltre, Mistral NeMo, un modello da 12 miliardi di parametri sviluppato in collaborazione con NVIDIA, è stato introdotto per supportare lunghe sequenze di testo.