Meta ha lanciato Llama-3 solo poche settimane fa e ha colto tutti di sorpresa. Ogni giorno le persone inventano casi d’uso, spingendo il modello ai suoi limiti in modi incredibili.

Ecco 10 esempi di ciò che può fare.

  • Llama-3 8B con una lunghezza del contesto di oltre 1 milione
    Sviluppato da Gradient e sponsorizzato da Compute di Crusoe Energy, questo modello, chiamato Llama-3 8B Gradient Instruct 1048k, estende la lunghezza del contesto di LLama-3 8B da 8k a oltre 1048K. Questo modello mostra che i LLM SOTA possono gestire in modo efficiente contesti lunghi con una formazione minima regolando opportunamente RoPE theta. Il modello è stato addestrato progressivamente su lunghezze di contesto crescenti, attingendo a tecniche come l’interpolazione compatibile con NTK e Ring Attention per un ridimensionamento efficiente. Questo approccio ha consentito un aumento massiccio della velocità di addestramento, rendendo il modello potente ed efficiente nella gestione di dati estesi.
  • App RAG con Llama-3 in esecuzione localmente
    Puoi creare un’app RAG con Llama-3 in esecuzione localmente sul tuo computer (è gratuita al 100% e non richiede una connessione Internet). Le istruzioni includono semplici passaggi come l’installazione delle librerie Python necessarie, la configurazione dell’app Streamlit, la creazione di incorporamenti Ollama e un archivio vettoriale utilizzando Chroma e la configurazione della catena RAG, tra le altre cose.
  • Modello Agri Vertical Dhenu 1.0 messo a punto su Llama3-8B
    Il modello Agri Vertical Dhenu1.0 di KissanAI è stato messo a punto su Llama3 8B per 150.000 istruzioni. È focalizzato sull’India e può essere scaricato, modificato e fornito a chiunque.
  • Chiamata degli strumenti
    Llama-3 70b su GroqInc è un campione nel chiamare strumenti. Il modello 70b ha superato l’attività quando è stata data una richiesta, è stato molto veloce e aveva il prezzo migliore. Si comporta benissimo anche nei benchmark e nei test.
  • Copilota velocissimo in VSCode
    Puoi connettere @GroqInc con VSCode, sbloccando tutto il potenziale di Llama-3 come copilota. Crea semplicemente il tuo account sulla console Groq, vai al menu “Chiave API” e genera la tua, scarica l’estensione CodeGPT dal marketplace VSCode. Successivamente, apri CodeGPT e seleziona Groq come provider, fai clic su “Modifica connessione”, incolla la chiave API Groq, quindi fai clic su “Connetti”. Così potrai connettere Groq a VSCode e accedere a tutti i modelli offerti da questo servizio.
  • Chiamata di funzione Llama-3
    La chiamata alla funzione Llama-3 funziona abbastanza bene. Nous Research ha annunciato Hermes 2 Pro, che viene fornito con funzionalità di chiamata di funzione e output strutturato. La versione Llama-3 ora utilizza token dedicati per i tag di analisi delle chiamate agli strumenti per semplificare le chiamate alle funzioni di streaming. Il modello supera Llama-3 8B Instruct su AGIEval, GPT4All Suite, TruthfulQA e BigBench.
  • TherapistAI, alimentato da Llama3-70B
    TherapistAI.com ora funziona su Llama3-70B, che, secondo i benchmark, è buono quasi quanto GPT-4. Il modello Llama3-70B ha migliorato significativamente le capacità di conversazione dell’app, consentendo un’interazione avanti e indietro in stile ping-pong. Le risposte sono diventate concise, dirette e fortemente focalizzate sulla risoluzione dei problemi. Con Llama-3, l’IA del terapista ora si impegna attivamente ponendo domande, che lo aiutano a comprendere meglio e ad affrontare le esigenze specifiche degli utenti. Mostra anche una memoria impressionante, che gli consente di mantenere il contesto durante conversazioni più lunghe, migliorando così la sua capacità di fornire risposte pertinenti e utilizzabili. Puoi anche utilizzare Llama-3 per creare tali applicazioni. Garantisce ottime prestazioni ed è meno costoso rispetto all’utilizzo di ChatGPT 4, che costa circa $ 20 al mese.
  • Assistente di codifica AI con Llama 3
    È ora di dare una spinta alla tua produttività costruendo un assistente di codifica AI con Llama3. Per sviluppare un assistente di codifica AI utilizzando Llama3, inizia scaricando Llama3 tramite Ollama, quindi integra un messaggio di sistema per abilitarlo come assistente di codifica Python. Successivamente, installa l’estensione Continue VSCode, collegala a my-python-assistant e attiva la funzione di completamento automatico delle schede per migliorare l’efficienza della codifica.
  • Assistente di ricerca superveloce che utilizza Llama 3
    Puoi costruire un assistente di ricerca basato sui modelli Llama-3 in esecuzione su Groq. Puoi quindi prendere qualsiasi argomento complesso, cercare informazioni sul Web, comprimerlo e inviarlo a Llama-3 in esecuzione su Groq. Invierà un rapporto di ricerca adeguato.
  • Creazione di funzionalità RAG per l’accesso ai dati privati
    Subtl.ai sta creando funzionalità RAG interne per l’accesso ai dati privati. Fondata con l’obiettivo di democratizzare l’accesso ai dati privati ​​per specifiche esigenze professionali, la piattaforma migliora significativamente l’efficienza offrendo un accesso alle informazioni 5 volte più veloce. Fa tutto questo mantenendo la sicurezza dei dati attraverso un’intelligenza artificiale che elabora e richiama in modo sicuro i tuoi dati, consentendo un accesso potenziato dall’intelligenza artificiale e la protezione dei dati. L’azienda rilascerà presto il suo bot AI basato su Llama-3.

Di Fantasy