La ricerca ha evidenziato che fornire un “monologo interiore” a un sistema di intelligenza artificiale (AI) migliora notevolmente la sua capacità di ragionamento. Questo approccio, simile a come le persone ponderano cosa dire prima di parlare, addestra i sistemi AI a riflettere prima di rispondere ai suggerimenti.
Secondo quanto riportato da Live Science, i ricercatori dell’Università di Stanford hanno presentato un nuovo algoritmo chiamato “Quiet-STaR” su un archivio online. Questo algoritmo offre agli utenti un “monologo interiore” per riflettere prima di rispondere.
Quiet-Star incarica il sistema AI di generare diverse motivazioni interne simultaneamente prima di fornire una risposta durante una conversazione. L’IA elabora la risposta ottimale combinando previsioni basate su prove e previsioni non logiche, talvolta confermando la risposta con l’aiuto di un partecipante umano.
Inoltre, Quiet-Star elimina le risposte errate e apprende dagli errori. Questo metodo di addestramento consente agli agenti AI di prevedere e apprendere dalle conversazioni future.
I ricercatori hanno applicato Quiet-Star a “Mistral 7B”, un modello di linguaggio di grandi dimensioni (LLM) open source, confrontando le versioni addestrate e non addestrate.
I risultati hanno mostrato un miglioramento significativo nelle capacità di ragionamento della versione addestrata con Quiet-Star, con un punteggio del 47,2% rispetto al 36,3% della versione non addestrata nel test di ragionamento.
Tuttavia, i modelli AI attuali, come “ChatGPT” e “Gemini”, basati su reti neurali, mancano di un vero ragionamento basato sul buon senso e comprensione. Pertanto, c’è stato un interesse crescente nel migliorare le capacità di ragionamento dei modelli LLM.
Quiet-Star potrebbe rappresentare un’innovazione in questo campo, in quanto può essere applicato in background a diversi tipi di LLM, indipendentemente dai dati di addestramento originali, migliorando così le capacità di inferenza.
Inoltre, tecnologie come Proft, che sfruttano il monologo interiore per migliorare le prestazioni dei modelli LLM, stanno emergendo come un’area di interesse nella ricerca AI. Ad esempio, gli scienziati dell’Università della British Columbia hanno sviluppato un agente AI che adotta una struttura di “clonazione del pensiero” simile a Quiet-Star, consentendo ai robot di organizzare i propri pensieri prima di agire, aumentando così l’efficienza lavorativa.