Mentre Google annunciava un’ondata di novità nell’intelligenza artificiale alla conferenza Cloud Next, Mistral AI ha fatto la sua mossa con il lancio del suo ultimo modello, chiamato Mixtral 8x22B.
A differenza di altri concorrenti, questa startup parigina, che ha recentemente ottenuto un notevole finanziamento e ha guadagnato attenzione nel campo dell’IA, ha optato per un approccio insolito. Piuttosto che rilasciare il modello con un video dimostrativo o un post sul blog, ha reso disponibile un collegamento torrent per scaricare e testare il nuovo modello.
Questo è stato il terzo grande rilascio di un modello nell’arco di due giorni, seguendo la disponibilità di GPT-4 Turbo con visione e Gemini 1.5 Pro. Meta ha anche suggerito che rilascerà il suo Llama 3 il mese successivo.
Il file torrent di Mistral, contenente il Mixtral 8x22B, è stato considerato una grande novità nel mondo dell’IA. Con quattro file per un totale di 262 GB, potrebbe essere impegnativo da eseguire localmente.
Gli appassionati di IA hanno notato che, nonostante le capacità precise del Mixtral 8x22B rimangano segrete, questo rappresenta un importante passo avanti per Mistral. Tuttavia, alcuni utenti hanno notato che potrebbe essere impegnativo in termini di risorse di sistema.
Dopo il rilascio su X, il modello è apparso anche su Hugging Face, dove gli utenti possono utilizzarlo per ulteriore formazione e implementazione. Tuttavia, va notato che, poiché il modello è preaddestrato, non dispone di meccanismi di moderazione.
L’approccio MoE sparso di Mistral si propone di fornire agli utenti una combinazione di modelli specializzati in diverse attività, per ottimizzare prestazioni e costi.
In precedenza, Mistral aveva rilasciato il Mixtral 8x7B utilizzando questo approccio, che ha dimostrato un’elevata efficienza nell’elaborazione delle informazioni.
Per quanto riguarda il nuovo Mixtral 8x22B, bisognerà vedere quali saranno le sue prestazioni effettive nei benchmark. Tuttavia, ci si aspetta che si basi sul successo del Mixtral originale, che ha mostrato performance superiori su vari benchmark rispetto a modelli simili, vantando anche una rapida elaborazione dei dati.