Immagine AI

A soli due anni dalla sua fondazione, Essential AI Labs, la startup co-fondata dal Dr. Ashish Vaswani – primo autore del rivoluzionario paper “Attention Is All You Need” che ha introdotto l’architettura Transformer – ha compiuto un passo audace rilasciando il suo modello inaugurale: Rnj-1. Questo modello compatto, dotato di 8 miliardi di parametri (8B), è stato subito posizionato come il modello open source con le performance più elevate nella sua categoria dimensionale, in particolare per le applicazioni di coding agent e le discipline STEM (Scienza, Tecnologia, Ingegneria e Matematica).

Rilasciato tramite Hugging Face, Rnj-1, il cui nome è un omaggio al celebre matematico Srinivasa Ramanujan, rappresenta un deliberato “ritorno alle basi” da parte dei suoi fondatori. Inizialmente orientata allo sviluppo di un Large Language Model (LLM) focalizzato sul settore aziendale, Essential AI Labs ha invece deciso di concentrare le proprie risorse sulla creazione di un modello scientificamente rigoroso e ottimizzato nelle sue funzionalità fondamentali.

L’architettura del modello segue da vicino quella open source di Gemma 3, ma con significative modifiche ingegneristiche. In particolare, è stata utilizzata la tecnica YaRN (Yet another RotarY embedding Network) per espandere drasticamente la finestra di contesto a ben 32.000 token. Inoltre, il modello utilizza un metodo di “auto-attenzione globale” che è cruciale per la sua performance: questa tecnica permette al modello di considerare simultaneamente le relazioni tra tutti i token in una sequenza e tutti gli altri token, migliorando la coerenza e la capacità di ragionamento su sequenze lunghe, un requisito essenziale per il coding e la matematica.

L’ottimizzazione del modello per l’inferenza e le sue scelte architettoniche mirate hanno portato Rnj-1 a stabilire nuovi benchmark di prestazione.

Nelle attività di generazione di codice algoritmico e di codifica generale, la versione Instruct del modello, denominata Rnj-1-Instruct, ha eguagliato o superato modelli open source cinesi di dimensioni simili in benchmark riconosciuti come MBPP+ e HumanEval+. Ha inoltre mostrato risultati superiori in benchmark di codifica ad ampio spettro come BigCodeBench e SWE-Bench Verified, superando persino modelli molto più grandi, come il gpt-oss-20B. Prestazioni di particolare rilievo sono state riscontrate in Enamel, un test che valuta la capacità del modello di scrivere soluzioni efficienti e ottimizzate a problemi algoritmici.

Le sue capacità si estendono alla sfera STEM, dove il modello ha brillato nelle competizioni matematiche. Nel test di competenza matematica AIME 2025, Rnj-1 ha ottenuto 43.3 punti, rimanendo solo leggermente dietro al modello gpt-oss-20b (46.7) ma distanziando nettamente altri competitor come Qone 3 8B (20.9) e Gemma 3 12B (18.8). Risultati analoghi sono stati raggiunti in SuperGPQA, un benchmark che valuta conoscenze e capacità di ragionamento a livello di laurea in 285 discipline.

Il rilascio di Rnj-1 è in linea con la ferma convinzione dei fondatori, Vaswani e la coautrice del paper Transformer Nikki Farma, che il progresso e l’equa distribuzione dell’AI debbano avvenire in un ambiente aperto.

Vaswani ha espresso preoccupazione per il fatto che un piccolo numero di aziende stia controllando la produzione e il flusso della tecnologia AI all’avanguardia. Sottolineando l’importanza di un accesso libero, ha dichiarato che lo sviluppo di un’intelligenza artificiale chiusa non dovrebbe ostacolare il progresso in settori che apportano benefici diretti alle persone, come l’istruzione e l’assistenza sanitaria. Per questo motivo, Essential AI Labs ha deciso di aderire a una rigorosa politica open source, offrendo al mondo il modello best-in-class per la sua categoria.

Questa scelta ha influenzato anche la metodologia di addestramento: Essential AI si è concentrata sulla pre-formazione del modello piuttosto che sull’apprendimento per rinforzo (Reinforcement Learning, RL), una tendenza comune nell’ultimo anno. La logica è che fornire alle aziende un modello già ottimizzato attraverso una solida pre-formazione è più vantaggioso, consentendo loro di effettuare il fine-tuning con maggiore efficacia sui propri dati proprietari.

Finora, la startup, fondata nel settembre 2023, ha raccolto 64.8 milioni di dollari in due round di investimento, mantenendo i suoi specifici progetti di sviluppo aziendale in gran parte riservati, ma dimostrando con Rnj-1 una chiara e potente direzione strategica verso l’innovazione open source ad alte prestazioni.

Di Fantasy