Gli esseri umani sono noti per la loro capacità di ragionamento e deduzione, competenze fondamentali per risolvere problemi. Finora, i modelli di intelligenza artificiale hanno avuto difficoltà a emulare questo tipo di pensiero. Tuttavia, ricercatori della Stanford University e della Notbad AI, Inc. hanno recentemente sviluppato un metodo per insegnare ai modelli di intelligenza artificiale a pensare prima di rispondere, simile al modo in cui la maggior parte delle persone pondera prima di parlare.
Questo nuovo metodo, chiamato Quiet-STaR, estende il modello Self-Taught Reasoner (STaR) e addestra i modelli su un vasto corpus di dati Internet per generare spiegazioni per ogni elemento di testo, migliorando così le previsioni future.
Quiet-STaR è stato testato su diversi compiti, come la risposta alle domande CommonsenseQA e problemi di parole di matematica. I risultati hanno mostrato miglioramenti significativi nelle capacità di ragionamento del modello.
I ricercatori spiegano che i metodi precedenti erano più focalizzati su compiti specifici e non generalizzabili. Quiet-STaR, invece, si concentra sull’insegnamento dei modelli a ragionare in modo più generale, aprendo la strada a modelli linguistici più robusti e adattabili.
Utilizzando l’apprendimento per rinforzo, Quiet-STaR addestra il modello a generare spiegazioni più utili durante la formazione. Questo metodo ha il potenziale per ridurre la dipendenza da set di dati curati e migliorare le capacità di ragionamento generale dei modelli linguistici.
In sintesi, Quiet-STaR rappresenta un passo avanti verso modelli linguistici in grado di apprendere a ragionare in modo più simile agli esseri umani, aprendo nuove prospettive per il miglioramento delle capacità di intelligenza artificiale nel futuro.