Immagine AI

Trillion Labs ha annunciato il 23 luglio 2025 il lancio open‑source della famiglia di modelli di linguaggio “Tri”, studiata per offrire altissime prestazioni pur mantenendo costi di addestramento contenuti. I modelli disponibili da subito su Hugging Face includono le versioni da 7 miliardi e 21 miliardi di parametri, con l’obiettivo di completare presto il portfolio con la release di “Tri‑70B”.

Grazie all’adozione della struttura “Chain‑of‑Thought” (CoT), questi modelli migliorano significativamente la capacità di ragionamento e inferenza, garantendo al contempo un funzionamento efficiente anche su una singola GPU.

L’architettura interna incorpora il sistema di apprendimento incrociato multilingue “XLDA”, che trasferisce conoscenza dall’inglese—lingua ricca di dati—al coreano, al giapponese e ad altri idiomi meno rappresentati, potenziando le performance su task specialistici e in contesti industriali con dati scarsi.

Secondo il report tecnico pubblicato ad aprile 2025, l’addestramento del Tri‑7B su 2 trilioni di token ha richiesto un investimento di circa 148 000 USD, un livello di efficienza tra i più elevati disponibili oggi sul mercato dei foundation model.

Fondata nell’aprile 2024 da Shin Jae‑min, ex‑ricercatore di Naver, Trillion Labs punta a consolidare la propria presenza in Asia, offrendo modelli personalizzabili sotto licenza open source sia per scopi di ricerca sia commerciali. L’azienda ha inoltre formato un consorzio con Lunit per candidarsi al progetto nazionale di sviluppo di AI foundation model, rafforzando le collaborazioni nel settore della sanità.

Di Fantasy