Immagine AI

L’intelligenza artificiale dedicata alla traduzione sta vivendo una fase di trasformazione radicale, e Tencent ha deciso di imprimere un’accelerazione importante con il rilascio di due modelli open source: Hunyuan-MT-7B e Hunyuan-MT-Chimera-7B. La mossa non rappresenta soltanto un passo tecnico, ma anche strategico, perché colloca la società cinese in prima linea in un settore dominato finora da colossi come Google, OpenAI e Anthropic.

Il modello Hunyuan-MT-7B, con i suoi 7 miliardi di parametri, si è già distinto in modo impressionante. Al concorso di traduzione automatica WMT 2025, tenutosi in Cina, ha conquistato il primo posto in ben 30 delle 31 combinazioni linguistiche in gara. Una vittoria che non è passata inosservata e che segnala quanto questo modello possa competere con i migliori sistemi commerciali al mondo.

La sua capacità non si limita a traduzioni tra le lingue più diffuse: Hunyuan-MT-7B supporta 33 lingue, incluse quelle minoritarie parlate in Cina, come tibetano, mongolo, uiguro e kazako. È proprio qui che il modello mostra la sua forza: ottenere prestazioni elevate anche in condizioni di scarsità di dati, un aspetto che tradizionalmente mette in difficoltà i sistemi automatici.

Accanto al modello principale, Tencent ha rilasciato Hunyuan-MT-Chimera-7B, che adotta un approccio del tutto originale. Questo sistema non si limita a produrre traduzioni da un singolo modello, ma combina i risultati di più modelli, unendo sistemi “forti” e “deboli”. Attraverso tecniche di apprendimento per rinforzo e metodi di aggregazione, produce traduzioni più raffinate e meno soggette a errori ripetitivi. Si tratta del primo modello open source a implementare questa metodologia, aprendo la strada a una nuova generazione di strumenti per la traduzione automatica.

Entrambi i modelli si basano su un processo di addestramento molto articolato, sviluppato in cinque fasi principali:

  • Addestramento generale del dizionario, con 1,3 trilioni di token che coprono 112 lingue e dialetti.
  • Addestramento specifico per la traduzione, con dataset su larga scala come mC4, OSCAR e OPUS.
    -Supervised Fine-Tuning (SFT), ovvero l’affinamento guidato con dati annotati.
  • Apprendimento per rinforzo con algoritmo GRPO (Group-Relative Policy Optimization).
  • Weak-to-Strong Reinforcement Learning, un approccio che permette di rafforzare il modello partendo da versioni più deboli e perfezionandole.

Grazie a questo percorso, i modelli non solo hanno raggiunto prestazioni elevate, ma hanno anche ridotto fenomeni problematici come le ripetizioni o le traduzioni incoerenti.

Le prove comparative confermano l’impatto della nuova tecnologia. Nella valutazione WMT24pp (inglese verso altre lingue), Hunyuan-MT-7B ha ottenuto un punteggio di 0,8585 sullo standard XCOMET-XXL, superando sistemi avanzati come Gemini-2.5-Pro (0,8250) e Claude Sonnet 4 (0,8120).

Nei test FLORES-200, che coprono 33 lingue e oltre mille coppie linguistiche, il modello ha raggiunto 0,8758, un risultato che lo colloca ben al di sopra di modelli open source come Qwen3-32B (0,7933).

Anche nelle traduzioni tra cinese e lingue minoritarie, una sfida particolarmente complessa, Hunyuan-MT-7B ha ottenuto un punteggio superiore a Gemini-2.5-Pro, dimostrando che la qualità non riguarda solo le lingue globali ma anche quelle meno rappresentate.

Rispetto a Google Translate, il vantaggio è netto: le performance sono superiori dal 15% al 65%, un divario che racconta bene il passo avanti compiuto.

Oltre ai test automatici, Tencent ha voluto validare i modelli con valutazioni umane in contesti reali: sociale, medico, legale, internet. I punteggi medi ottenuti (3,189 per Hunyuan-MT-7B) sono risultati comparabili o addirittura superiori a quelli di modelli concorrenti di fascia alta, come Gemini-2.5-Pro e DeepSeek-V3. Google Translate, al confronto, si è fermato a un modesto 2,344.

Questi dati evidenziano un potenziale applicativo notevole: dalle traduzioni di testi scientifici alla comunicazione interculturale, passando per l’accesso a informazioni legali o sanitarie in lingue poco diffuse.

I modelli Hunyuan-MT non sono un episodio isolato: Tencent negli ultimi mesi ha accelerato il rilascio di soluzioni open source di grande rilievo. A giugno ha lanciato Hunyuan-A13B, un modello che sfrutta l’approccio MoE (Mixture of Experts) per combinare prestazioni ed efficienza. A luglio ha presentato Hunyuan 3D World Model 1.0, capace di generare mondi virtuali tridimensionali interattivi a partire da testo o immagini, suscitando notevole interesse nel settore.

Con questa strategia, Tencent punta a consolidare la propria posizione sia sul fronte della ricerca, sia su quello dell’ecosistema open source, sfidando direttamente le big tech occidentali e proponendosi come attore di riferimento nello sviluppo dell’IA multilingue e multimodale.

Di Fantasy