Lo sviluppo dell’intelligenza artificiale sta attraversando una fase simile al periodo pionieristico del software open source: i modelli vengono creati assemblando elementi diversi provenienti da varie fonti. Tuttavia, questo solleva problemi di visibilità e sicurezza: come possono gli sviluppatori garantire che i componenti fondamentali dei modelli siano affidabili e sicuri?
Per affrontare queste sfide, Endor Labs, un’azienda specializzata nella sicurezza della supply chain software, ha lanciato oggi la piattaforma Endor Labs Scores for AI Models. Questa nuova piattaforma valuta oltre 900.000 modelli di intelligenza artificiale open source disponibili su Hugging Face, uno dei principali hub per l’AI.
La piattaforma di Endor Labs utilizza 50 metriche pronte all’uso per valutare i modelli in base a quattro fattori: sicurezza, attività, qualità e popolarità. Gli sviluppatori possono interrogare la piattaforma su domande specifiche, come “Quali modelli possono classificare i sentimenti?” o “Qual è un modello vocale popolare?”, senza bisogno di conoscenze tecniche approfondite.
Endor Labs fornisce informazioni su quanto siano popolari e sicuri i modelli, insieme a dettagli su quando sono stati creati e aggiornati. Secondo George Apostolopoulos, ingegnere fondatore di Endor Labs, la sicurezza nei modelli di intelligenza artificiale è una questione complessa, poiché esistono vulnerabilità come l’iniezione di codice dannoso e il typosquatting.
Apostolopoulos avverte che, con l’aumento dell’uso di modelli AI, ci si aspetta un incremento degli attacchi. Endor ha sviluppato le sue categorie di punteggio basandosi su dati di Hugging Face e su studi sugli attacchi noti. La piattaforma esegue automaticamente scansioni per monitorare aggiornamenti o modifiche ai modelli.
In futuro, Endor Labs prevede di ampliare il suo focus anche ad altre piattaforme, inclusi fornitori commerciali come OpenAI, per fornire una visione più ampia sulla governance dell’intelligenza artificiale.
Apostolopoulos sottolinea i paralleli tra lo sviluppo dell’IA e quello del software open source. Entrambi presentano numerose opzioni e rischi. I modelli AI sono spesso costruiti su altri modelli, creando una rete complessa di dipendenze difficile da gestire e proteggere.
Inoltre, la mancanza di trasparenza rende difficile capire esattamente quali siano i componenti e le vulnerabilità sottostanti ai modelli. Apostolopoulos avverte che scaricare software open source può essere “estremamente pericoloso”, poiché gli attaccanti possono facilmente comprometterlo.
Un ulteriore ostacolo riguarda le licenze. Mentre i modelli open source seguono norme specifiche, l’IA introduce complicazioni poiché questi modelli sono addestrati su set di dati con le proprie licenze. Le organizzazioni devono prestare attenzione alla proprietà intellettuale utilizzata dai modelli e ai relativi diritti d’autore.
Apostolopoulos conclude sottolineando che, sebbene i modelli di intelligenza artificiale e le dipendenze open source attingano entrambi a fonti esterne, gli LLM (modelli di linguaggio di grandi dimensioni) sono più complessi da valutare e gestire.