Il Quadro di Anthropic: Prevenire Catastrofi AI in 4 Livelli

Anthropic ha presentato un nuovo schema per anticipare e prevenire le catastrofi legate all’intelligenza artificiale (IA). Hanno categorizzato il rischio AI in quattro distinte fasi, posizionando l’attuale Large Language Model (LLM) al secondo livello.

Recentemente, si è appresa la “Politica per una Scalabilità Responsabile” proposta da Anthropic, sottolineando l’impegno dell’azienda a sviluppare l’IA con prudenza. Questo approccio intende evitare scenari dove gli errori dell’IA potrebbero portare a gravi perdite umane e danni economici di grande entità.

L’obiettivo del RSP: Evitare i danni a grande scala causati dall’IA. Questa iniziativa s’inserisce nell'”AI Safety Pledge” annunciato mesi fa ed è la prima politica concreta in tale direzione.

Livelli di Sicurezza AI: Ispirandosi agli standard del livello di biosicurezza (BSL) del governo USA, Anthropic ha introdotto il “Livello di Sicurezza AI (ASL)” suddiviso in 4 fasi:

  • ASL-1: In questa fase, l’IA svolge funzioni specifiche e rappresenta un basso rischio. Esempi includono “AlphaGo” o “BERT” del 2018.

  • ASL-2: Questi sistemi cominciano a mostrare potenziali pericoli, come la possibilità di produrre informazioni su armi biologiche, ma mancano ancora di precisione. L’attuale LLM, come “Claude”, rientra in questa categoria.

  • ASL-3: L’IA in questa fase porta un rischio maggiore di abuso, offrendo più autonomia rispetto ai motori di ricerca standard.

  • ASL-4: Qui entriamo nel territorio dell’intelligenza artificiale generale (AGI), dove l’autonomia dell’IA aumenta significativamente e i rischi di abusi diventano ancora più evidenti. Le specifiche per questa fase sono ancora in fase di elaborazione.

La politica RSP di Anthropic dettaglia procedure di valutazione e implementazione mirate a ciascun livello ASL. Hanno raccomandato che ogni cambiamento significativo riceva l’approvazione del consiglio di amministrazione, l’ente decisionale principale dell’azienda.

Va notato che, mentre l’RSP pone una forte enfasi sulla sicurezza, non influisce sui prodotti AI attualmente disponibili, come Claude. L’azienda spera che questa politica possa servire da modello per altri attori nel settore dell’IA.

Il cofondatore di Anthropic, Sam McCandrish, ha descritto l’RSP come un documento dinamico che verrà continuamente aggiornato in base all’esperienza e al feedback raccolto.

Anthropic e l’IA Costituzionale: L’azienda è riconosciuta per il suo approccio “AI costituzionale”, in cui l’IA evolve autonomamente seguendo principi fondamentali, piuttosto che basarsi esclusivamente su input umani. Il loro modello “Claude” ha guadagnato notorietà per la sua precisione superiore rispetto a soluzioni come “GPT” di OpenAI o “Lambda” di Google.

In conclusione, vanno elogiati gli sforzi di Anthropic per bilanciare l’utilità dell’IA con le considerazioni etiche e di sicurezza, posizionando l’azienda come leader nella definizione degli standard per il futuro dell’intelligenza artificiale.

Di ihal