La startup coreana Trillion Labs ha recentemente segnato un traguardo fondamentale annunciando lo sviluppo di Trida-7B. Si tratta di un modello linguistico su larga scala che si distingue per essere il primo, a livello nazionale in Corea, ad adottare un’architettura di trasformatore basata sulla diffusione. Questo approccio rappresenta una rottura rispetto al metodo autoregressivo standard, che solitamente genera il testo in modo sequenziale, una parola alla volta, preferendo invece un’elaborazione parallela dell’intera frase che garantisce una fluidità e una coerenza strutturale superiore.
Il successo tecnologico di Trida-7B non è frutto di un impegno isolato, ma nasce da una stretta sinergia tra l’eccellenza della ricerca privata e il supporto istituzionale. Lo sviluppo è stato infatti reso possibile grazie alle ingenti risorse di calcolo messe a disposizione dalla National IT Industry Promotion Agency nell’ambito di un programma promosso dal Ministero della Scienza e delle TIC. Utilizzando una potenza di calcolo equivalente a ottanta GPU H200, il team di Trillion Labs è riuscito a ottimizzare i tempi di addestramento e a superare gli ostacoli infrastrutturali che spesso frenano le giovani imprese tecnologiche. Grazie a questo sostegno, il CEO Jae-min Shin ha potuto concentrare le energie della società esclusivamente sulla ricerca e sullo sviluppo di una tecnologia che promette di ridefinire gli standard di efficienza.
Dal punto di vista puramente tecnico, la vera innovazione risiede nel passaggio dal dLLM utilizzato storicamente per la generazione di immagini all’applicazione testuale. Attraverso la strategia denominata Block Diffusion, Trillion Labs è riuscita a implementare un metodo di generazione basato su zone specifiche che previene il sovraccarico computazionale, permettendo al contempo di rimuovere il “rumore” informativo dalle frasi in modo parallelo. I risultati di questa architettura sono evidenti nelle prestazioni di inferenza, che risultano essere due volte e mezzo più veloci rispetto ai modelli precedenti. Questa velocità non sacrifica la precisione, anzi, il modello ha dimostrato di eccellere proprio nella comprensione delle sfumature linguistiche più complesse.
Le valutazioni effettuate sui benchmark globali confermano la competitività di Trida-7B, posizionandolo ai vertici delle classifiche per quanto riguarda la lingua coreana. Nel confronto diretto con giganti tecnologici del calibro di NVIDIA, Alibaba e Huawei, la soluzione di Trillion Labs ha ottenuto i punteggi più alti in indicatori cruciali come la conoscenza e la comprensione della lingua e la capacità di seguire istruzioni complesse. Sebbene il settore della programmazione rimanga un terreno di ulteriore sfida, il primato assoluto nelle categorie linguistiche coreane sancisce l’efficacia della visione di Shin. La decisione dell’azienda di rendere pubblici i pesi e il codice di inferenza del modello sottolinea inoltre la volontà di favorire una crescita condivisa all’interno dell’ecosistema tecnologico nazionale.
Guardando al futuro prossimo, Trillion Labs non intende fermarsi ai risultati ottenuti con il modello da 7 miliardi di parametri. L’azienda ha già presentato la propria candidatura per partecipare a nuovi progetti governativi finalizzati alla creazione di modelli di fondazione indipendenti, puntando a sviluppare soluzioni con una scala di parametri decuplicata. A soli dodici mesi dalla sua fondazione, la startup si posiziona come un attore di primo piano nella competizione globale sulla tecnologia dell’intelligenza artificiale, dimostrando come l’innovazione architettonica e una strategia di apprendimento mirata possano colmare il divario con i leader mondiali del settore.
