Anthropic, l’azienda creatrice del modello di intelligenza artificiale “Claude”, ha annunciato un’importante revisione delle proprie politiche di utilizzo, introducendo nuove regole stringenti per prevenire usi pericolosi e abusivi della tecnologia. L’aggiornamento, reso pubblico il 15 agosto (ora locale), entrerà in vigore il 15 settembre e segna un passo deciso verso un’IA più sicura e responsabile, in linea con le crescenti capacità dei modelli più avanzati.

Già in passato Anthropic vietava esplicitamente l’uso di Claude per la creazione e la distribuzione di armi, esplosivi e materiali pericolosi. La nuova revisione amplia questo divieto, includendo in modo specifico categorie ad alto rischio come esplosivi ad alta potenza, armi biologiche, nucleari, chimiche e radiologiche.

Questa mossa si inserisce nel percorso avviato con l’introduzione del sistema di sicurezza “AI Safety Level 3” lo scorso maggio, in concomitanza con il lancio di Claude Opus 4. L’obiettivo è chiaro: rendere ancora più difficile sfruttare l’IA per aggirare controlli e ottenere informazioni utili allo sviluppo di tecnologie CBRN (Chimiche, Biologiche, Radiologiche e Nucleari).

Un aspetto centrale di queste modifiche riguarda il rapido progresso degli “agenti” di intelligenza artificiale, software autonomi capaci di interagire con sistemi e strumenti digitali. Funzionalità come Cloak Code e Computer Use — che possono essere impiegate per scrivere codice, eseguire comandi e automatizzare compiti complessi — offrono grandi opportunità, ma anche rischi elevati.

Per questo, Anthropic ha introdotto un divieto esplicito contro la violazione di computer, reti e infrastrutture. Sarà proibito:

  • rilevare e sfruttare vulnerabilità,
  • creare o distribuire malware,
  • sviluppare strumenti per attacchi denial-of-service (DoS).

Tuttavia, resta consentito l’uso legittimo in ambito di sicurezza informatica, come il rilevamento di vulnerabilità, purché avvenga con l’autorizzazione del proprietario del sistema.

Curiosamente, mentre le regole su armi e sicurezza informatica si sono irrigidite, Anthropic ha leggermente allentato le restrizioni sui contenuti politici. In precedenza, ogni riferimento a campagne elettorali e lobbying era vietato; ora il divieto si applicherà solo ai casi in cui tali attività possano compromettere il processo democratico o manipolare elettori e campagne. Una modifica che rispecchia, in parte, approcci normativi già visti negli Stati Uniti sotto l’amministrazione Trump.

La nuova politica chiarisce anche i limiti nell’uso di Claude per attività di sorveglianza e monitoraggio. Non sarà permesso impiegare il modello per:

  • sorveglianza diretta,
  • tracciamento di individui,
  • profilazione,
  • monitoraggio biometrico.

Rimangono invece consentiti gli impieghi di back-office e le analisi interne già previste nella policy precedente.

Particolare attenzione è stata riservata ai cosiddetti “casi d’uso ad alto rischio”, cioè quelli con un impatto sociale rilevante nei campi legale, finanziario e del lavoro. In tali scenari, sarà obbligatorio un processo di revisione umana e, se il servizio è rivolto direttamente ai consumatori, dovrà essere dichiarato esplicitamente l’impiego dell’IA.

Anthropic ha definito la propria politica di utilizzo come un documento vivo, destinato a evolvere costantemente per adattarsi ai nuovi rischi e scenari dell’intelligenza artificiale. L’azienda ha ribadito l’impegno a collaborare con decisori politici, esperti del settore e organizzazioni della società civile per aggiornare e migliorare le regole man mano che la tecnologia e le sue minacce evolvono.

Di Fantasy