Ecco l’elenco di 7 modi in cui il modello LLaMA di Meta è stato utilizzato dalla comunità dopo il suo rilascio:
Stanford Alpaca: i ricercatori della Stanford University hanno sviluppato un modello chiamato “Alpaca”, che è una versione perfezionata di “LLaMA 7B”. Utilizzando più di 50.000 dimostrazioni che seguono le istruzioni di GPT 3.5, i ricercatori hanno addestrato Alpaca a produrre risultati paragonabili a quelli generati dal modello di OpenAI. Dopo l’open-sourcing del modello, i ricercatori hanno riconosciuto il potenziale di Alpaca e hanno iniziato a utilizzarlo in una vasta gamma di casi d’uso.
GPT4ALL: Nomic AI ha sviluppato “GPT4All”, un modello linguistico con parametri 7B addestrato su un corpus accuratamente selezionato di oltre 800.000 interazioni con l’assistente di alta qualità raccolte utilizzando il modello GPT-Turbo-3.5. Il modello è stato addestrato utilizzando numerose istanze del modello linguistico LLaMA di Meta. Attualmente, GPT4All è concesso in licenza solo per scopi di ricerca, in quanto si basa su LLaMA di Meta, che ha una licenza non commerciale.
Vigogna-13B: i ricercatori della UC Berkeley hanno introdotto “Vicuna-13B”, una nuova alternativa open source a GPT-4. Il modello vanta risultati impressionanti, raggiungendo il 90% della qualità di ChatGPT, mentre il costo della formazione è di soli $ 300. Il modello è stato perfezionato con LLaMA e incorporando le conversazioni condivise dagli utenti raccolte da ShareGPT.
Koala: UC Berkeley ha presentato “Koala”, un nuovo modello di dialogo per scopi di ricerca. Il modello è stato addestrato utilizzando LLaMA di Meta, messo a punto con un set di dati di alta qualità di dati di dialogo estratti dal web, con un’enfasi particolare sulle risposte alle domande provenienti da altri modelli di linguaggio di grandi dimensioni, come ChatGPT.
Guanaco: “Guanaco” è un modello linguistico che segue le istruzioni, addestrato sul modello LLaMA 7B di Meta con ulteriori 534.530 voci che coprono vari compiti linguistici e grammaticali in sette lingue.
Dalai: “Dalai” è uno strumento intuitivo per eseguire LLaMa su macchine locali. Lo strumento offre agli utenti il controllo completo sul proprio modello linguistico e richiede Python <= 3.10 e Node.js >= 18.
Simple WebUI: “Simple LLaMA Finetuner” è uno strumento progettato con un’interfaccia intuitiva per aiutare i principianti a mettere a punto il m