Quanto memorizzano gli LLM? La nuova analisi di Meta, Google, Nvidia e Cornell
Una domanda cruciale ha suscitato dibattiti tra ricercatori, sviluppatori e giuristi: quanto dei dati utilizzati per addestrare i modelli linguistici di grandi dimensioni (LLM) viene effettivamente “memorizzato” dai modelli stessi?…
Google aggiorna Gemini 2.5 Pro con il modello Preview 06-05 Thinking che promette prestazioni sorprendenti
Google ha recentemente svelato un aggiornamento significativo al suo modello Gemini 2.5 Pro, denominato “Preview 06-05 Thinking”. Questo nuovo modello promette di ridefinire gli standard di performance nel campo del…
Securing l’Intelligenza Artificiale: Databricks e Noma affrontano l’incubo della fase di inferenza per i CISO
L’adozione dell’intelligenza artificiale (IA) da parte delle imprese è in continua espansione. Tuttavia, con l’aumento dell’uso dell’IA, emergono nuove sfide, in particolare per i Chief Information Security Officers (CISO), che…
Reddit cita in giudizio Anthropic: una battaglia legale sull’uso non autorizzato dei dati
Reddit ha intentato causa contro l’azienda di intelligenza artificiale Anthropic, accusandola di aver utilizzato i dati degli utenti della piattaforma senza autorizzazione per addestrare il suo chatbot Claude. Secondo la…