Anthropic, l’azienda di ricerca e sicurezza all’origine del famoso chatbot Claude, ha reso pubblica la sua nuova politica chiamata “Responsible Scaling Policy” (RSP), focalizzata sul ridimensionamento responsabile dei sistemi di intelligenza artificiale (IA). Questa politica è stata creata per affrontare i potenziali “rischi catastrofici” derivanti dall’uso di IA avanzata, situazioni in cui un modello IA potrebbe causare devastazione su vasta scala.

L’RSP è una politica senza precedenti nel suo genere, sottolineando l’impegno di Anthropic nel mitigare i rischi crescenti legati all’IA avanzata. L’obiettivo principale è minimizzare le possibilità che l’IA possa causare danni su larga scala, incluso il rischio di “migliaia di morti o centinaia di miliardi di dollari di danni causati direttamente da un modello IA e che non si sarebbero verificati altrimenti”.

Un elemento chiave della politica sono i livelli di sicurezza AI (ASL), che servono a classificare il rischio potenziale associato a diversi sistemi di intelligenza artificiale. Questa classificazione va dalla ASL-0 (a basso rischio) alla ASL-3 (ad alto rischio). L’obiettivo è riflettere i diversi livelli di rischio, anche se il tracciamento dei confini può essere arbitrario.

Anthropic riconosce che l’IA potrebbe comportare rischi reali in futuro, anche se i modelli attuali sembrano relativamente sicuri. La politica RSP è quindi vista come un documento in evoluzione, soggetto a miglioramenti e aggiornamenti in base all’esperienza e al feedback.

L’azienda mira a utilizzare le pressioni competitive per risolvere i problemi principali legati alla sicurezza e consentire lo sviluppo di sistemi IA più sicuri e avanzati, anziché semplicemente scalare in modo sconsiderato. Tuttavia, Anthropic riconosce che valutare completamente i rischi è una sfida, specialmente considerando la capacità potenziale dei modelli di nascondere le proprie capacità.

La politica RSP include anche misure per garantire un controllo indipendente, con qualsiasi modifica che richiede l’approvazione del consiglio. Questo approccio può rallentare le risposte alle preoccupazioni sulla sicurezza, ma è considerato necessario per evitare possibili pregiudizi.

L’annuncio dell’RSP di Anthropic arriva in un momento in cui il settore dell’IA è sotto stretta regolamentazione e controllo per quanto riguarda sicurezza ed etica. Anthropic, nota per la sua trasparenza e responsabilità, sta cercando di definire standard elevati per l’IA, concentrandosi sulla minimizzazione dei danni e sulla massimizzazione dell’utilità.

L’azienda ha un approccio all’IA chiamato “l’intelligenza artificiale costituzionale”, che combina regole e principi per consentire un controllo umano completo. Questo metodo ha dimostrato di essere efficace nell’assicurare che l’IA agisca in modo etico e sicuro.

La politica RSP di Anthropic rappresenta un importante passo avanti nell’ambito della sicurezza e dell’etica dell’IA, evidenziando l’impegno dell’azienda verso la responsabilità e la sicurezza nell’evoluzione dell’intelligenza artificiale.

Di ihal