Secondo quanto riportato da The Information, Meta ha in programma di presentare la prossima settimana due versioni più piccole del suo prossimo progetto chiamato Llama 3. Si prevede che queste versioni più piccole saranno lanciate come anteprime della versione più grande del Llama 3, che arriverà quest’estate.
L’obiettivo di rilasciare queste versioni più piccole è di creare anticipazione per il prossimo Llama 3, che sarà lanciato circa un anno dopo l’introduzione del Llama 2 lo scorso luglio. Questa mossa arriva mentre diverse altre aziende, come Google, xAI di Elon Musk, Databricks e Mistral, hanno già presentato versioni open source di LLM.
Il progetto Llama 3 è parte della strategia di Meta per competere con il GPT-4 di OpenAI, noto per la sua capacità di rispondere a domande basate su immagini caricate dagli utenti. Si prevede che la versione più grande del Llama 3 sarà in grado di elaborare sia testo che immagini, mentre i due modelli più piccoli previsti per la prossima settimana non avranno queste capacità, secondo quanto riportato.
I modelli più piccoli stanno diventando sempre più popolari nel settore grazie al loro costo più basso e alle prestazioni di elaborazione più veloci rispetto ai modelli più grandi. Sono particolarmente interessanti per gli sviluppatori che vogliono integrare l’intelligenza artificiale nei dispositivi mobili.
In passato, Meta aveva rilasciato tre varianti del Llama 2, con un numero di parametri che variava da 7 miliardi a 70 miliardi, che rappresentano la conoscenza acquisita durante l’addestramento del modello.
Si ipotizza che la versione più grande del Llama 3 potrebbe superare i 140 miliardi di parametri, secondo quanto riportato da The Information.
Meta utilizza attualmente il Llama 2 per migliorare il suo assistente AI nelle sue app. Gli sforzi più recenti all’interno del dipartimento di intelligenza artificiale generativa di Meta si sono concentrati sul migliorare il Llama 3 per affrontare domande controverse, in risposta alle preoccupazioni riguardo al fatto che il Llama 2 fosse troppo conservatore nelle sue risposte.