La scorsa settimana, Meta ha rilasciato le prime versioni del suo nuovo modello linguistico di grandi dimensioni, chiamato Llama 3, suscitando un grande interesse. Clem Delangue, co-fondatore e CEO di Hugging Face, ha annunciato che entro il prossimo fine settimana saranno disponibili ben 10.000 varianti del modello, con già 1000 varianti di Llama 3 pubblicate su Hugging Face.
Questo nuovo modello presenta un generatore di immagini che aggiorna le immagini in tempo reale mentre gli utenti digitano le richieste. Meta ha rilasciato due versioni di Llama 3: una con 8 miliardi di parametri e un’altra con 70 miliardi di parametri.
Secondo Meta, entrambe le dimensioni di Llama 3 superano modelli simili come Gemma e Gemini di Google, Mistral 7B e Claude 3 di Anthropic in alcuni test di benchmarking.
Rispetto al modello Llama 2 di Meta, l’affermazione più significativa riguarda la performance del modello istruito 8B di Llama 3, che sembra superare il modello istruito 70B di Llama 2 su vari benchmark.
Il numero di token in Llama 3 è aumentato da 32.000 (Llama 2) a 128.000. Questo significa che Llama 3 può gestire sequenze più lunghe in modo più efficiente, citando il 15% in meno di token e offrendo migliori prestazioni.
Andrej Karpathy, direttore dell’intelligenza artificiale di Tesla, ha elogiato i nuovi modelli di Llama 3, sottolineando anche l’importanza di modelli più piccoli per scopi didattici e di test.
Tuttavia, ci sono ancora limitazioni, come la lunghezza massima della sequenza, che rimane relativamente bassa rispetto agli standard moderni.
Pratik Desai, fondatore di Kissan AI, ha rilasciato una versione ottimizzata di Llama 3, chiamata Dhenu Llama 3, e ha incoraggiato il feedback dalla comunità.
Inoltre, Groq ha introdotto “Llama 3 Researcher”, un modello di intelligenza artificiale con una velocità record di 876 token al secondo, disponibile gratuitamente per gli sviluppatori.
Infine, Yann LeCun, capo scienziato dell’intelligenza artificiale di Meta, ha rivelato che modelli ancora più potenti di Llama sono in fase di sviluppo, incluso un modello con oltre 400 miliardi di parametri. Questi modelli saranno integrati nell’assistente virtuale di Meta, Meta AI.