Meta, l’azienda dietro la famiglia di modelli di intelligenza artificiale open-source Llama, ha recentemente pubblicato un rapporto intitolato “The Frontier AI Framework”. Questo documento delinea l’approccio dell’azienda nello sviluppo di modelli di IA a scopo generale, focalizzandosi sull’identificazione e la mitigazione dei “rischi catastrofici” associati a tali tecnologie. Tra i rischi considerati vi sono minacce alla sicurezza informatica e potenziali usi impropri in ambito chimico e biologico.

Il framework proposto da Meta si articola in un processo in tre fasi:

  • Anticipazione dei Rischi: Identificazione proattiva dei potenziali pericoli associati all’IA.
  • Valutazione e Mitigazione dei Rischi: Analisi approfondita dei rischi individuati e implementazione di strategie per ridurli.
  • Decisione sul Rilascio del Modello: Determinazione se il modello debba essere rilasciato, limitato o sospeso, in base alla gravità dei rischi identificati.

Il rapporto include valutazioni dei rischi da parte di esperti in vari settori, tra cui ingegneria, gestione del prodotto, conformità e privacy, legale e politiche, nonché altri leader aziendali.

Se i rischi sono considerati “critici”, il framework suggerisce di fermare lo sviluppo del modello e limitare l’accesso a un ristretto numero di esperti con adeguate protezioni di sicurezza. Se i rischi sono “alti”, il modello non dovrebbe essere rilasciato, ma può essere accessibile a un team di ricerca centrale con protezioni di sicurezza. Infine, se i rischi sono “moderati”, il modello può essere rilasciato secondo le linee guida del framework.

Altre aziende nel settore dell’IA hanno sviluppato framework analoghi. Ad esempio, Anthropic ha introdotto la “Responsible Scaling Policy”, che fornisce protocolli tecnici e organizzativi per gestire i rischi associati allo sviluppo di sistemi di IA sempre più capaci. Questa politica definisce quattro livelli di sicurezza, con misure di sicurezza e protezione che aumentano all’aumentare delle capacità del modello.

Allo stesso modo, OpenAI ha un “charter” che delinea la sua missione di sviluppare e distribuire modelli di IA in modo sicuro. Inoltre, l’azienda rilascia regolarmente una “system card” per tutti i suoi modelli, che descrive il lavoro svolto riguardo alla sicurezza e alla protezione prima del rilascio di qualsiasi nuova variante.

Di Fantasy