Recentemente, Alibaba ha introdotto Marco-o1, un modello linguistico avanzato progettato per competere direttamente con l’o1 di OpenAI. Questo sviluppo segna un passo significativo nella strategia di Alibaba per affermarsi come leader nel settore dell’IA.
Marco-o1 è stato sviluppato dal team MarcoPolo di Alibaba International Digital Commerce. Il modello è basato sull’architettura Qwen2-7B-Instruct e ha subito un fine-tuning utilizzando una combinazione di dataset open-source e dati sintetici proprietari. Tra le tecniche impiegate spiccano:
- Chain-of-Thought (CoT) fine-tuning: migliora la capacità del modello di seguire catene logiche di pensiero, facilitando il ragionamento su problemi complessi.
- Monte Carlo Tree Search (MCTS): consente al modello di esplorare multiple vie di ragionamento, assegnando punteggi di confidenza a ciascuna, per identificare la soluzione più promettente.
- Strategie di azione di ragionamento: affinano l’approccio del modello alla risoluzione dei problemi, variando la granularità delle azioni intraprese.
Nei test preliminari, Marco-o1 ha mostrato un miglioramento del 6,17% in accuratezza sul dataset MGSM in inglese e del 5,60% sulla versione cinese, evidenziando una potenziata capacità di ragionamento. Inoltre, il modello eccelle in compiti di traduzione automatica, riuscendo a interpretare e tradurre espressioni complesse e idiomatiche con elevata precisione.
Alibaba ha reso Marco-o1 disponibile su piattaforme come GitHub e Hugging Face, promuovendo la collaborazione e l’innovazione nella comunità scientifica e tra gli sviluppatori. Il team MarcoPolo continua a esplorare applicazioni del modello in vari domini, tra cui traduzione multilingue e scaling del tempo di inferenza, con l’obiettivo di ampliare le capacità e l’efficienza di Marco-o1.