LG AI Research ha presentato EXAONE 4.0, un modello linguistico di grandi dimensioni (LLM) che, pur vantando “solo” 32 miliardi di parametri, ha raggiunto prestazioni ai vertici mondiali tra i modelli open source. Questo risultato è particolarmente significativo considerando che modelli concorrenti come DeepSeek-R1 e QONE 3 contano rispettivamente 671B e 402B parametri. EXAONE 4.0 è stato rilasciato sulla piattaforma Hugging Face per scopi di ricerca, accademici e didattici, con licenza aperta che consente la modifica e la ridistribuzione dei pesi del modello.

EXAONE 4.0 si distingue per la sua architettura ibrida, che combina modelli inferenziali e non inferenziali. Questa configurazione gli consente di offrire sia risposte rapide basate sulla conoscenza che una profonda capacità di ragionamento. Il modello è disponibile in due varianti: una versione “esperto” con 32 miliardi di parametri e una versione “on-device” con 1,2 miliardi di parametri, progettata per applicazioni locali.

Nonostante le dimensioni contenute, EXAONE 4.0 ha ottenuto punteggi impressionanti in vari benchmark:

  • MMLU-Redux: 92,3 punti
  • MMLU-Pro: 81,8 punti
  • AIME 2025 (matematica): 85,3 punti
  • LiveCodeBench V6 (programmazione): 75,4 punti
  • GPQA-Diamond (problem-solving scientifico): 66,7 punti

Questi risultati sono paragonabili a quelli di modelli significativamente più grandi, come DeepSeek-R1 e QONE 3, dimostrando l’efficienza e l’efficacia di EXAONE 4.0.

LG AI Research ha collaborato con Friendly AI per rendere EXAONE 4.0 facilmente accessibile alle aziende. Attraverso l’API commerciale, le imprese possono integrare il modello nei propri servizi senza la necessità di infrastrutture GPU dedicate, beneficiando di tempi di risposta rapidi e scalabilità automatica in base al traffico.

Di Fantasy