I ricercatori di NVIDIA hanno recentemente introdotto ChatQA, una famiglia di modelli per rispondere a domande in conversazioni, mirando a ottenere risultati di alta precisione, comparabili a quelli di GPT-4.
ChatQA di NVIDIA offre una serie di modelli, che vanno da 7 miliardi a 70 miliardi di parametri. I test condotti su 10 set di dati conversazionali dimostrano che il modello ChatQA-70B supera GPT-3.5-turbo e si avvicina alle prestazioni di GPT-4, il tutto senza l’uso di dati sintetici da ChatGPT.
Il team di ChatQA ha sviluppato un metodo in due fasi per ottimizzare le risposte alle domande, migliorando notevolmente i risultati delle conversazioni senza l’uso di grandi modelli linguistici. Per migliorare il recupero delle informazioni nelle conversazioni, hanno creato un sistema di recupero delle informazioni basato su dati conversazionali, ottenendo risultati simili a modelli più complessi con minori costi di implementazione.
NVIDIA ha dimostrato l’efficacia di questo approccio, ottenendo risultati paragonabili a modelli avanzati senza richiedere ulteriori risorse computazionali o costi aggiuntivi.
ChatQA di NVIDIA ha mostrato progressi significativi nella gestione di domande senza risposta, dimostrando che l’aggiunta di alcune risposte mancanti può migliorare notevolmente le prestazioni. Il modello di punta, ChatQA-70B, ha dimostrato prestazioni competitive rispetto a GPT-4 in queste situazioni.
Inoltre, anche altre aziende stanno lavorando su modelli avanzati, come Google con Gemini Ultra e Mistral, che prevede di presentare un modello open-source di livello GPT-4 nel 2024, secondo l’annuncio del CEO Arthur Mensch.