Lamini AI ha annunciato ufficialmente la sua collaborazione con Meta meno di due settimane dopo il lancio di Lamini Memory Tuning, avvenuto il 13 giugno. Questo strumento ha dimostrato la capacità di migliorare la precisione dei fatti riducendo fino al 95% le allucinazioni, un problema comune nei modelli di linguaggio.
Lamini Memory Tuning rappresenta una svolta nella ricerca sull’IA, risolvendo il paradosso di ottenere una precisione fattuale elevata senza compromettere le capacità di generalizzazione degli LLM (Large Language Models). Questo metodo è stato applicato a modelli open source come LLaMA 3 e Mistral 3.
Con la nuova collaborazione con Meta, l’obiettivo è migliorare ulteriormente le prestazioni di LLaMA 3, specialmente nella qualità delle query SQL. Meta ha anche rilasciato un repository di ricette LLaMA 3 Lamini per facilitare la sintonizzazione dei modelli LLaMA, particolarmente utile per le imprese.
Lamini Memory Tuning non solo migliora la precisione fattuale, ma riduce anche i tempi di risposta del 50%, diminuisce i carichi di lavoro per i team di dati e aumenta l’affidabilità complessiva delle query SQL. Questo strumento stabilisce un nuovo standard di precisione per gli LLM, richiedendo meno sforzo agli sviluppatori.
In passato, altri strumenti hanno tentato di migliorare l’efficienza delle query SQL. Ad esempio, i ricercatori della Nanyang Technological University, della Singapore University of Technology and Design e della DAMO Academy di Alibaba hanno introdotto LLM-R2, un sistema di riscrittura di query che ha migliorato significativamente l’efficienza delle query SQL.