Kakao ha annunciato il rilascio open source del suo nuovo modello linguistico di nuova generazione, Kanana-2, rendendolo disponibile su Hugging Face e confermando una strategia che punta con decisione sulla trasparenza e sulla collaborazione con la comunità globale di sviluppatori e ricercatori. L’azienda coreana aveva già presentato la famiglia Kanana lo scorso anno e, nel tempo, ha reso pubblici diversi modelli, dai più leggeri fino a Kanana-1.5, pensato per affrontare problemi complessi. Con Kanana-2, Kakao compie un ulteriore passo in avanti, concentrandosi non solo sulle prestazioni pure, ma anche sull’efficienza e su un’idea sempre più centrale nel panorama attuale: quella di un’intelligenza artificiale “peer”, capace di comprendere il contesto dei comandi dell’utente e di agire in modo proattivo.
Il nuovo rilascio non si limita a un singolo modello, ma comprende tre varianti distinte: una versione Base, una versione Instruct ottimizzata tramite post-addestramento per l’esecuzione più accurata delle istruzioni, e un modello specifico per l’inferenza, introdotto per la prima volta all’interno della linea Kanana. Un elemento particolarmente rilevante è la scelta di rendere pubblici tutti i pesi utilizzati nella fase di apprendimento, offrendo così agli sviluppatori la possibilità di adattare e perfezionare il modello sui propri dati. Questa apertura rafforza il valore del progetto come risorsa per l’ecosistema open source e lo rende appetibile anche per contesti di ricerca avanzata e sperimentazione industriale.
Uno dei miglioramenti più significativi riguarda la funzione di chiamata degli strumenti, considerata il cuore dell’intelligenza artificiale agentica. Kanana-2 mostra un progresso netto rispetto alla versione precedente Kanana-1.5-32.5b, con un incremento di oltre tre volte nelle capacità di tool calling multi-turn. Questo significa che il modello è in grado di comprendere e portare a termine richieste complesse articolate in più passaggi, mantenendo coerenza e precisione lungo l’intero processo. È un aspetto cruciale per lo sviluppo di agenti AI capaci di operare in ambienti reali, dove i compiti non sono mai isolati ma si sviluppano attraverso sequenze di decisioni e azioni concatenate.
Dal punto di vista linguistico, Kakao ha ampliato il supporto a sei lingue, includendo giapponese, cinese, thailandese e vietnamita oltre al coreano e all’inglese. Questa estensione rafforza la vocazione internazionale del modello e ne aumenta la rilevanza nei mercati asiatici, ma anche in scenari globali in cui il multilinguismo è una condizione essenziale per l’adozione su larga scala.
Sul piano architetturale, Kanana-2 adotta soluzioni all’avanguardia pensate per massimizzare l’efficienza. L’utilizzo della tecnica di Multi-head Latent Attention consente di gestire in modo più efficace input molto lunghi, mentre l’applicazione della struttura Mixture of Experts soltanto ai parametri necessari durante l’inferenza permette di ridurre il consumo di risorse. Questa combinazione rende possibile l’elaborazione di contesti estesi anche con memoria limitata, abbassando i costi computazionali e migliorando la velocità di risposta. Kakao sottolinea inoltre come queste scelte abbiano portato benefici anche nella gestione di richieste simultanee su larga scala, un requisito fondamentale per servizi AI destinati a un utilizzo reale e intensivo.
I benchmark pubblicati dall’azienda confermano una competitività di livello globale. Il modello Instruct ha raggiunto prestazioni paragonabili a quelle di Qwen3-30B-A3B, che condivide la stessa architettura, mentre il modello dedicato all’inferenza ha mostrato risultati simili a QWERTY3-30B-A3B in test che richiedono diverse capacità di ragionamento. Non si tratta solo di numeri: Kanana-2 è stato presentato in anteprima durante una competizione dedicata agli agenti AI, organizzata in collaborazione con la Korea Information Science Society, dove ha dimostrato un’elevata usabilità in contesti di sviluppo pratico.
Guardando al futuro, Kakao ha dichiarato l’intenzione di continuare ad ampliare la scala dei suoi modelli basati su architettura MoE e di rafforzare ulteriormente le capacità di esecuzione dei comandi. Parallelamente, l’azienda prevede di sviluppare sia modelli specializzati per scenari agentici complessi, sia versioni più leggere pensate per l’esecuzione diretta su dispositivi, segno di una strategia che punta a coprire un ampio spettro di casi d’uso, dal cloud all’edge computing.
Nelle parole di Kim Byung-hak, Performance Leader di Kakao Kanana, emerge con chiarezza la visione alla base del progetto: le prestazioni e l’efficienza dei modelli linguistici sono il fondamento dei servizi di intelligenza artificiale realmente innovativi. L’obiettivo dichiarato è quello di sviluppare modelli pratici, utilizzabili nei servizi AI concreti, rapidi ed efficaci, e di continuare a condividerli come open source per contribuire alla crescita dell’ecosistema di ricerca sull’intelligenza artificiale, sia a livello nazionale che internazionale. In questo senso, Kanana-2 non è solo un nuovo modello, ma un tassello significativo nella strategia di Kakao per posizionarsi come attore rilevante nel panorama globale dell’AI open source.
