L’azienda DeepSeek ha introdotto un’innovativa metodologia di addestramento per i modelli linguistici di grandi dimensioni (LLM). Questa nuova tecnica mira a potenziare le capacità di ragionamento dei modelli, trasformando processi di codifica complessi in descrizioni in linguaggio naturale, facilitando così una comprensione più intuitiva e logica.
Tradizionalmente, l’addestramento degli LLM si basa su grandi quantità di codice, focalizzandosi sull’input e l’output delle funzioni. Questo approccio, sebbene efficace in contesti strutturati come la programmazione e la matematica, può risultare limitante quando si tratta di applicazioni più generali. La rigidità delle regole sintattiche del codice può ostacolare la capacità del modello di adattarsi a situazioni meno strutturate, dove il ragionamento flessibile è essenziale.
Per superare queste limitazioni, DeepSeek, in collaborazione con il Beijing Jiaotong University e la Hong Kong University of Science and Technology, ha sviluppato una nuova metodologia di addestramento denominata “Code I/O”. Questo approccio prevede la conversione di processi di codifica in descrizioni dettagliate in linguaggio naturale, utilizzando tecniche come il “Chain of Thought” (CoT) per delineare chiaramente i passaggi logici coinvolti. L’obiettivo è fornire al modello una comprensione più profonda dei processi decisionali, andando oltre la semplice esecuzione di istruzioni codificate.
Nel processo di sviluppo, il team ha raccolto oltre 450.000 frammenti di codice da vari repository e dataset educativi. Questi frammenti sono stati poi trasformati in descrizioni in linguaggio naturale utilizzando modelli avanzati come DeepSeek-V2.5. Questa trasformazione ha permesso di creare un dataset ricco di esempi che illustrano chiaramente il ragionamento alla base di specifiche operazioni, facilitando l’addestramento di modelli più versatili e capaci di affrontare una gamma più ampia di problemi.
I modelli addestrati con la metodologia Code I/O hanno mostrato miglioramenti significativi in vari benchmark. In particolare, hanno eccelso in test di ragionamento matematico come GSM8K e MATH, nonché in valutazioni di logica e ragionamento simbolico come BBH e CRUX. Questi risultati suggeriscono che l’integrazione di descrizioni in linguaggio naturale nei processi di addestramento può ampliare le capacità dei modelli, rendendoli più efficaci in una varietà di contesti applicativi.