I modelli linguistici di grandi dimensioni (LLM) sono bravi a rispondere a domande semplici, ma affrontano difficoltà con compiti complessi che richiedono ragionamento e pianificazione. Questi compiti sono noti come “Sistema 2” e richiedono uno sforzo cosciente e analitico.
Per migliorare le capacità di ragionamento dei LLM, i ricercatori di Meta FAIR hanno introdotto la “distillazione del Sistema 2”. Questa tecnica insegna agli LLM a eseguire compiti complessi senza dover passare attraverso passaggi intermedi.
Nella psicologia cognitiva, il “Sistema 1” si riferisce al pensiero veloce e intuitivo, mentre il “Sistema 2” è più lento e analitico, necessario per risolvere problemi complessi. Gli LLM sono simili al Sistema 1, in grado di generare testo rapidamente ma con difficoltà nei ragionamenti complessi.
I ricercatori hanno sviluppato tecniche per indurre gli LLM a imitare il pensiero del Sistema 2. Ad esempio, utilizzando la “Catena di pensiero”, gli LLM spiegano passo dopo passo il loro ragionamento, migliorando la precisione nelle attività logiche.
Sebbene efficaci, queste tecniche rendono gli LLM più lenti e costosi dal punto di vista computazionale. La distillazione del Sistema 2 mira a estrarre la capacità di ragionamento degli LLM senza compromettere la velocità di risposta.
I ricercatori hanno testato la distillazione su diversi compiti di ragionamento e hanno scoperto che può migliorare notevolmente le prestazioni degli LLM. Questo approccio consente agli LLM di generare risposte più velocemente eliminando i passaggi di ragionamento intermedio.
Tuttavia, non tutti i compiti possono essere distillati efficacemente. Ad esempio, i compiti matematici complessi richiedono ancora un ragionamento deliberato.
La distillazione del Sistema 2 rappresenta un passo avanti significativo per ottimizzare i modelli LLM, liberando tempo per affrontare compiti più complessi, simile a come gli esseri umani affinano le loro abilità con l’esperienza.
Guardando al futuro, la distillazione potrebbe diventare un importante strumento per migliorare le performance dei modelli LLM su una vasta gamma di compiti specifici.