È emerso di recente che il Giappone ha avviato un ambizioso progetto per sviluppare una “versione giapponese di Chat GPT” utilizzando il supercomputer più potente al mondo. Questo sforzo è stato motivato dalle preoccupazioni riguardo alla precisione dei prodotti come “ChatGPT” di OpenAI quando si tratta della lingua giapponese.

Secondo quanto riportato da Nature il 15 settembre (ora locale), Fujitsu, il Tokyo Institute of Technology, RIKEN e il Tokyo Institute of Technology hanno unito le forze per creare un Language Model (LLM) basato in Giappone. Per portare avanti questo progetto, stanno sfruttando il supercomputer giapponese di alto livello noto come “Fugaku”. Questo supercomputer, sviluppato da Fujitsu con finanziamenti governativi di circa 110 miliardi di yen (circa 1,05 trilioni di won) nel 2014, è stato costantemente il più performante al mondo, mantenendo il primo posto nella classifica mondiale dei supercomputer per tre anni consecutivi, da giugno 2020 a giugno 2021.

Il gruppo di ricerca prevede di utilizzare il potentissimo Fugaku per sviluppare in modo indipendente un LLM con ben 30 miliardi di parametri basato sull’algoritmo del trasformatore. Questo modello sarà principalmente addestrato utilizzando dati da documenti giapponesi disponibili online. L’obiettivo del gruppo è di completare lo sviluppo della tecnologia di base entro l’anno in corso e di metterla a disposizione delle aziende giapponesi gratuitamente a partire dal prossimo anno.

Una delle principali ragioni alla base di questo progetto è la complessità della lingua e della cultura giapponese, che ha portato a critiche sulle capacità di sistemi di intelligenza artificiale addestrati in lingue diverse. A differenza dell’inglese, il giapponese è caratterizzato da due serie di 48 caratteri di base e da ben 2.136 caratteri cinesi utilizzati frequentemente. La maggior parte di questi caratteri cinesi ha due o più pronunce, e vi sono circa 50.000 caratteri cinesi raramente utilizzati. Date queste sfide, è diventato necessario sviluppare un’alternativa a ChatGPT che sia in grado di superare queste barriere linguistiche e culturali.

Nel frattempo, è noto che altre aziende giapponesi stanno già commercializzando la propria tecnologia LLM o hanno in programma di farlo. Il produttore di supercomputer NEC ha cominciato a utilizzare un LLM basato in Giappone lo scorso maggio e ha dichiarato di aver ridotto il tempo necessario per scrivere report interni del 50% e il tempo per scrivere codice software interno dell’80%. A partire dallo scorso luglio, NEC ha cominciato a offrire servizi di intelligenza artificiale personalizzati ai propri clienti.

Matsufumi Oyamada, ricercatore senior presso NEC, ha affermato che questa tecnologia “può essere utilizzata in un’ampia gamma di settori industriali come la finanza, i trasporti e la logistica, la distribuzione e la produzione”, e che può supportare attività quali la scrittura di codice, la produzione di documenti e la ricerca di articoli pubblicati esistenti.

Inoltre, Softbank ha annunciato il suo piano di sviluppare un proprio LLM. L’azienda investirà 20 miliardi di yen (circa 180 miliardi di won) in un LLM focalizzato sulla lingua giapponese, con l’obiettivo di lanciarlo l’anno prossimo. Il presidente di Softbank, Junichi Miyakawa, ha dichiarato che sono l’unica azienda in Giappone con una base tecnologica GPT, e prevede di coinvolgere 1.000 sviluppatori. L’obiettivo è che il loro LLM venga utilizzato da università, istituti di ricerca e altre organizzazioni.

Keisuke Sakaguchi, professore presso l’Università di Tohoku, ha enfatizzato l’importanza di proteggere la tecnologia giapponese in questo settore, affermando: “Non è auspicabile che solo poche aziende americane detengano questa tecnologia”, e ha sottolineato l’importanza di affrontare le sfide legate all’IA in Giappone.

Di Fantasy