Recentemente, Hugging Face ha affrontato un potenziale disastro in termini di sicurezza informatica, ma è stato salvato dall’intervento tempestivo di Lasso Security. Questo evento ha messo in luce la vulnerabilità dei modelli di intelligenza artificiale generativa e delle piattaforme correlate. Lasso Security ha identificato un rischio di compromissione di 1.681 token API attraverso un’analisi approfondita dei repository GitHub e di Hugging Face.
Esposizione e Rischi per le Organizzazioni di Alto Profilo
Durante la loro indagine, i ricercatori di Lasso hanno ottenuto l’accesso agli account di 723 organizzazioni importanti, tra cui Meta, Microsoft, Google e VMware. Tra questi account, 655 token utente erano abilitati con autorizzazioni di scrittura, e 77 di questi consentivano il controllo totale sui repository di aziende di spicco. Questa vulnerabilità ha esposto milioni di utenti a potenziali attacchi alla catena di approvvigionamento, dato che i ricercatori hanno anche avuto pieno accesso ai notevoli archivi di Bloom, Llama 2 e Pythia.
La Criticità della Situazione
I ricercatori di Lasso hanno evidenziato la serietà della situazione, sottolineando il rischio di manipolazione dei modelli esistenti, che potrebbero diventare dannosi. Questa minaccia è aggravata dalla possibilità di iniettare modelli corrotti, colpendo gli utenti che dipendono da questi modelli per le loro applicazioni.
Hugging Face: Un Bersaglio di Grande Rilievo
Hugging Face è diventata una piattaforma chiave per oltre 50.000 organizzazioni che sviluppano Large Language Models (LLM). La sua libreria Transformers, open source, ospita oltre 500.000 modelli AI e 250.000 set di dati, diventando una risorsa fondamentale per sviluppatori e professionisti.
Lasso Security e la Gestione della Sicurezza dei Token API
I ricercatori di Lasso hanno condotto un’indagine approfondita sulla sicurezza dei token API di Hugging Face, rivelando tre nuovi rischi emergenti identificati dalla Top 10 OWASP per i Large Language Models. Questi includono la vulnerabilità della catena di fornitura, l’avvelenamento dei dati formativi e il furto di modelli. La ricerca ha mostrato la necessità di trattare i token API come identità critiche, richiedendo una gestione costante e una vigilanza elevata.
Verso un Approccio Zero Trust
L’incidente sottolinea la necessità di un approccio zero trust nella gestione dei token API. La creazione di token unici, l’autenticazione a più fattori e una gestione attenta del ciclo di vita sono essenziali per garantire la sicurezza. Bar Lanyado, ricercatore di Lasso Security, ha enfatizzato l’importanza di scansionare costantemente i token API esposti e revocarli o avvisare gli utenti in caso di esposizione.
Conclusioni: La Necessità di una Maggiore Sicurezza
Questo evento mette in evidenza la necessità di una maggiore sicurezza nell’ecosistema dei Large Language Models. La gestione efficace dei token API e l’adozione di un approccio già compromesso sono fondamentali per rafforzare la sicurezza nell’intera organizzazione e proteggere contro potenziali minacce o vettori di attacco.