La paradossale inaffidabilità degli LLM: quando la pressione sostituisce la verità
Un recente studio di Google DeepMind e dell’University College London ha rivelato un aspetto inquietante dei modelli linguistici di grandi dimensioni (LLM): la loro tendenza a abbandonare risposte corrette sotto…