La Generative Retrieval Generation (RAG) sta emergendo come una tecnica potente per migliorare i modelli linguistici di grandi dimensioni (LLM), consentendo loro di recuperare e incorporare informazioni pertinenti da fonti di dati esterne. Mentre ci sono strumenti specializzati per integrare i componenti RAG con i LLM, c’è anche una crescente domanda per soluzioni senza codice che semplificano la creazione di chatbot aziendali. Tuttavia, fino ad oggi, mancava un modo semplice per valutare le prestazioni del RAG.

Una serie di studi condotti da Tonic.ai, un’azienda specializzata in sintesi dei dati e privacy, ha confrontato le soluzioni RAG tra loro. Un recente post sul blog focalizzato su CustomGPT.ai, una piattaforma di chatbot senza codice, ha approfondito questa analisi. In un test contro le funzionalità RAG di OpenAI, CustomGPT ha dimostrato di fornire risposte più precise e pertinenti in modo contestuale.

Il segreto del successo del RAG risiede negli incorporamenti dei vettori. A differenza della ricerca tradizionale, i database vettoriali nelle architetture RAG forniscono agli LLM informazioni probabilistiche più robuste, facilitando un migliore recupero delle informazioni. Tonic.ai ha eseguito test utilizzando la sua piattaforma di valutazione e benchmarking, Tonic Validate, confrontando CustomGPT con le funzionalità RAG integrate di OpenAI. CustomGPT.ai si è distinto per la sua capacità di fornire risposte precise a query complesse, superando OpenAI in termini di qualità e accuratezza delle risposte.

Sebbene OpenAI sia leader nei LLM, non è garantito che le sue soluzioni siano le migliori per tutti i casi d’uso aziendali. Ci sono molteplici variabili che influenzano la qualità dell’output RAG, come l’origine dei dati e la strategia di suddivisione in blocchi. Questa complessità verrà esplorata in un webinar di Voicebot questa settimana.

Di Fantasy