Con oltre 100 milioni di download dei modelli Llama fino ad ora, si assiste a un’innovazione significativa nel campo dell’intelligenza artificiale (AI), in gran parte alimentata da modelli open source. In risposta a questa tendenza, è stato lanciato “Purple Llama”, un progetto ombrello volto a unire strumenti e valutazioni per supportare gli sviluppatori nell’utilizzo responsabile di modelli di intelligenza artificiale generativa aperta.
La scelta del colore viola per il progetto simboleggia l’integrazione delle strategie di attacco (squadra rossa) e difesa (squadra blu) nel mondo della sicurezza informatica. Questo approccio collaborativo, incarnato dal team viola, è finalizzato a valutare e mitigare i potenziali rischi associati all’AI generativa.
Purple Llama inizierà includendo strumenti e valutazioni per la sicurezza informatica e le garanzie di input/output, con l’intenzione di espandere la sua offerta nel prossimo futuro. Tutti i componenti del progetto saranno concessi in licenza in modo permissivo, promuovendo sia la ricerca che l’uso commerciale. Questo passo è considerato fondamentale per facilitare la collaborazione tra sviluppatori e standardizzare gli strumenti di fiducia e sicurezza nell’AI generativa.
Tra le iniziative del progetto, si annovera la condivisione di una serie di valutazioni di sicurezza informatica per i Large Language Models (LLM), basate su linee guida e standard del settore e realizzate in collaborazione con esperti di sicurezza. Questi strumenti sono volti a ridurre il codice non sicuro generato dai LLM e a diminuirne l’utilità per gli avversari informatici.
Inoltre, come raccomandato nella Guida all’uso responsabile di Llama 2, si suggerisce che tutti gli input e output per i LLM siano monitorati e filtrati secondo linee guida sui contenuti adeguate.
Per supportare ulteriormente questi sforzi, è stato rilasciato Llama Guard, un modello fondamentale disponibile liberamente, pensato per aiutare gli sviluppatori a evitare la generazione di risultati potenzialmente rischiosi. Questo modello è stato addestrato su un mix di set di dati pubblici per rilevare tipi comuni di contenuti potenzialmente rischiosi o in violazione. L’obiettivo è quello di consentire agli sviluppatori di personalizzare le versioni future per supportare casi d’uso specifici e facilitare l’adozione delle migliori pratiche.
Meta, l’azienda dietro a Llama, è stata da sempre impegnata in un approccio aperto all’IA, con la ricerca esplorativa, la scienza aperta e la collaborazione incrociata come pilastri fondamentali dei suoi sforzi in questo campo. Llama 2 è stato lanciato a luglio con oltre 100 partner, e ora molti di questi stessi partner stanno collaborando con Meta su progetti di fiducia e sicurezza aperte, tra cui AI Alliance, AMD, Anyscale, AWS e molti altri.
Con Purple Llama, Meta e i suoi partner puntano a creare un ecosistema di IA generativa sviluppato in modo responsabile, mettendo in luce l’importanza della collaborazione e dell’innovazione aperta in questo ambito.