Hugging Face, una delle principali piattaforme per l’hosting di modelli di intelligenza artificiale, ha annunciato una collaborazione con JFrog, leader nella gestione della supply chain del software, per migliorare la sicurezza all’interno del proprio Hub. ​

Con la crescente adozione dell’intelligenza artificiale, è emersa la preoccupazione riguardo alla presenza di modelli malevoli che possono compromettere la sicurezza degli utenti. Nel 2024, il team di ricerca sulla sicurezza di JFrog ha scoperto almeno 100 modelli di machine learning malevoli ospitati sulla piattaforma Hugging Face, evidenziando la necessità di misure di sicurezza più robuste. ​

Per affrontare queste sfide, Hugging Face ha deciso di integrare lo scanner di sicurezza di JFrog direttamente nel proprio Hub. Questo scanner esegue un’analisi approfondita dei pesi dei modelli per rilevare potenziali utilizzi malevoli, riducendo fino al 96% i falsi positivi rispetto agli scanner tradizionali. ​

Lo scanner di JFrog analizza il codice nei pesi dei modelli per individuare possibili minacce, come backdoor o esecuzioni di codice remoto. Supporta vari formati di modelli, tra cui quelli basati su pickle, TensorFlow, GGUF e ONNX. Gli utenti non devono intraprendere alcuna azione specifica per beneficiare di questa integrazione: tutti i repository pubblici dei modelli vengono automaticamente scansionati da JFrog non appena vengono caricati sull’Hub. ​

Questa collaborazione rappresenta un passo significativo verso una maggiore trasparenza e sicurezza nella comunità dell’intelligenza artificiale. Integrando strumenti di scansione avanzati, Hugging Face mira a fornire agli sviluppatori e ai ricercatori maggiore fiducia nell’utilizzo dei modelli disponibili sulla piattaforma, promuovendo al contempo pratiche di sicurezza più rigorose.

Di Fantasy