Ecco il lancio della versione 7 di ModernMT, il sistema di traduzione automatica adattiva (MT) di punta sviluppato da Translated, leader nella fornitura di soluzioni linguistiche basate sull’intelligenza artificiale. Questo aggiornamento rappresenta un notevole passo avanti, poiché introduce Trust Attention, una nuova e innovativa tecnica ispirata al funzionamento del cervello umano nel dare priorità alle fonti attendibili, migliorando la qualità della traduzione fino al 42% (vedi grafico allegato).
Trust Attention è un metodo unico nel suo genere che consente a ModernMT di privilegiare l’apprendimento da dati qualificati e di alta qualità, ovvero traduzioni eseguite e riviste da professionisti, piuttosto che contenuti non verificati provenienti dal Web. Questa nuova tecnica si basa sulla capacità umana di selezionare le informazioni più affidabili tra diverse fonti, consentendo a ModernMT V7 di identificare e prioritizzare i dati di addestramento più preziosi.
Il CEO di Translated, Marco Trombetti, ha commentato: “La capacità di ModernMT di dare la precedenza a dati di qualità superiore per migliorare il modello è il progresso più significativo nella traduzione automatica dall’introduzione dell’adattività dinamica cinque anni fa. Questa entusiasmante innovazione apre nuove opportunità per le aziende per migliorare la customer experience globale e aiuterà i traduttori a incrementare la loro produttività e guadagni.”
Questa nuova approccio rappresenta un passo avanti importante per le aziende che desiderano una maggiore precisione durante la traduzione di grandi volumi di contenuti o che richiedono un elevato grado di personalizzazione del motore di traduzione automatica. Inoltre, i traduttori che integrano la traduzione automatica nel loro flusso di lavoro potranno beneficiare notevolmente di questa innovazione.
Al momento, si sta discutendo ampiamente sull’applicazione dei modelli linguistici di grandi dimensioni (LLM) nella traduzione. Mentre la traduzione automatica tradizionale si concentra sull’accuratezza a scapito della fluidità, i LLM tendono a privilegiare la fluidità stessa. Questo può portare a output fuorvianti, a volte dettati da allucinazioni in cui gli output non sono ben radicati nei dati di addestramento ricevuti. Crediamo che Trust Attention di Translated possa contribuire a migliorare l’accuratezza dei modelli generativi, riducendo così la probabilità di errori. Questo potrebbe gettare le basi per la prossima era della traduzione automatica.
Tutti i clienti di Translated trarranno vantaggio dalla maggiore qualità del nuovo modello MT, il che si tradurrà in tempi di consegna dei progetti più rapidi. I traduttori che collaborano con Translated sperimentano già la potenza del nuovo modello attraverso Matecat, lo strumento CAT gratuito basato sul web e supportato dall’intelligenza artificiale di Translated. Inoltre, i traduttori che utilizzano uno dei CAT tool ufficialmente supportati (Matecat, memoQ e Trados) con una licenza ModernMT attiva potranno anch’essi beneficiare di questa potente evoluzione.