Foxconn, il colosso taiwanese dell’elettronica noto per l’assemblaggio degli iPhone di Apple, ha annunciato il lancio di “FoxBrain”, il suo primo modello linguistico di grandi dimensioni (LLM). Questo sviluppo rappresenta un passo significativo nell’integrazione dell’intelligenza artificiale (IA) nei processi produttivi e nella gestione delle catene di approvvigionamento.
FoxBrain è stato sviluppato utilizzando 120 unità di elaborazione grafica (GPU) Nvidia H100 e completato in circa quattro settimane. Il modello si basa sull’architettura Llama 3.1 di Meta ed è ottimizzato per il cinese tradizionale e gli stili linguistici taiwanesi. Nonostante un lieve divario prestazionale rispetto al modello di distillazione di DeepSeek, FoxBrain si avvicina agli standard mondiali, dimostrando le capacità di Taiwan nel campo dell’IA.
Inizialmente progettato per applicazioni interne, FoxBrain copre diverse funzioni, tra cui analisi dei dati, supporto alle decisioni, collaborazione documentale, matematica, ragionamento, risoluzione dei problemi e generazione di codice. Foxconn prevede di collaborare con partner tecnologici per espandere le applicazioni del modello, condividere informazioni open-source e promuovere l’uso dell’IA nella produzione, nella gestione della catena di approvvigionamento e nel processo decisionale intelligente.
Nvidia ha fornito supporto attraverso il suo supercomputer “Taipei-1” con sede a Taiwan e ha offerto consulenza tecnica durante la formazione del modello. Taipei-1, il più grande supercomputer di Taiwan, è posseduto e gestito da Nvidia a Kaohsiung, una città meridionale dell’isola. Foxconn annuncerà ulteriori dettagli sul modello durante la conferenza degli sviluppatori GTC di Nvidia a metà marzo.