DeepSeek, la divisione AI del fondo speculativo cinese High-Flyer Capital Management, ha lanciato il suo nuovo modello, DeepSeek-V2.5, considerato ora il leader nel campo dell’intelligenza artificiale open source. Questa versione avanzata unisce le migliori caratteristiche dei precedenti modelli DeepSeek-V2-0628 e DeepSeek-Coder-V2-0724, offrendo un potente strumento per elaborazione del linguaggio e codifica.
Rilasciato il 6 settembre 2024, DeepSeek-V2.5 è disponibile su Hugging Face e si distingue come il modello di linguaggio di grandi dimensioni (LLM) più avanzato nell’ambito open source. Le sue prestazioni hanno attirato l’attenzione di ricercatori e professionisti, posizionandolo come il modello di punta nel panorama dell’AI open source.
DeepSeek-V2.5 eccelle in diverse aree, dalla scrittura alla codifica avanzata, migliorando notevolmente rispetto ai suoi predecessori. Il modello introduce capacità di chiamata di funzione, che gli permettono di interagire con strumenti esterni per applicazioni come report meteorologici, traduzioni e sviluppo di codice.
Recenti test e recensioni lodano le sue prestazioni superiori, con un punteggio di precisione del 50,5 in AlpacaEval 2.0, un miglioramento rispetto ai modelli precedenti. Inoltre, ha ottenuto un punteggio eccellente di 89 in HumanEval Python, dimostrando notevoli capacità di codifica.
Il modello arriva in un momento di controversia nel campo dell’AI open source, con il Reflection 70B di HyperWrite, recentemente dichiarato “il miglior modello open source”, messo in discussione da ricercatori indipendenti. Tuttavia, DeepSeek-V2.5 ha guadagnato consensi per la sua qualità e capacità.
DeepSeek-V2.5 è reso disponibile con una licenza open source su Hugging Face, simile alla licenza MIT, che permette l’uso commerciale con alcune restrizioni. Gli sviluppatori e le aziende possono integrare il modello nei loro progetti, beneficiando di un potente strumento di intelligenza artificiale per vari scopi, dalla generazione di contenuti all’assistenza clienti e analisi dei dati.
Il modello è progettato per essere altamente efficiente, richiedendo una configurazione in formato BF16 con GPU da 80 GB per un’operazione ottimale. Le sue innovazioni, come il Multi-Head Latent Attention (MLA), migliorano la velocità di inferenza e riducono il consumo di risorse, rendendolo sia potente che economico.