La startup cinese di intelligenza artificiale DeepSeek ha recentemente annunciato il rilascio di DeepSeek Coder V2, un modello di linguaggio di codice misto di esperti (MoE) open source. Questo nuovo modello, basato su DeepSeek-V2, eccelle sia nelle attività di codifica che in quelle matematiche, supportando oltre 300 linguaggi di programmazione. Si posiziona in avanti rispetto ai modelli closed source più avanzati come GPT-4 Turbo, Claude 3 Opus e Gemini 1.5 Pro.
DeepSeek Coder V2 mantiene prestazioni elevate anche in termini di ragionamento generale e capacità linguistiche, oltre a offrire miglioramenti significativi rispetto al suo predecessore. Fondato l’anno scorso, DeepSeek si è guadagnato una posizione di rilievo nella corsa all’intelligenza artificiale in Cina, collaborando con altri leader del settore come Qwen, 01.AI e Baidu.
Il nuovo modello, disponibile con licenza MIT per uso commerciale e di ricerca senza restrizioni, è stato addestrato su un vasto set di dati, inclusi codici e dati matematici provenienti da GitHub e CommonCrawl. Questo addestramento intensivo ha permesso a DeepSeek Coder V2 di gestire con successo compiti complessi di codifica e matematica, oltre a mostrare buone prestazioni in altre attività linguistiche e di ragionamento.
Gli interessati possono accedere al modello attraverso diverse opzioni, tra cui il download diretto da Hugging Face o l’utilizzo tramite API sulla piattaforma di DeepSeek. L’azienda offre anche la possibilità di interagire con DeepSeek Coder V2 tramite un chatbot per testare le sue capacità in contesti reali.