I modelli MoE sotto esame: nuove vulnerabilità di sicurezza negli LLM secondo il KAIST
Negli ultimi anni l’architettura mixture of experts (MoE) si è affermata come una delle soluzioni più promettenti per far crescere le capacità dei grandi modelli linguistici senza moltiplicare in modo…