Quanto memorizzano gli LLM? La nuova analisi di Meta, Google, Nvidia e Cornell
Una domanda cruciale ha suscitato dibattiti tra ricercatori, sviluppatori e giuristi: quanto dei dati utilizzati per addestrare i modelli linguistici di grandi dimensioni (LLM) viene effettivamente “memorizzato” dai modelli stessi?…