In un contesto in cui l’intelligenza artificiale (IA) sta evolvendo rapidamente, Anthropic ha presentato una proposta significativa per garantire lo sviluppo sicuro e responsabile dei modelli di IA avanzata. Il 7 luglio 2025, l’azienda ha annunciato un Targeted Transparency Framework, un’iniziativa pensata per colmare il divario normativo esistente e promuovere pratiche trasparenti tra le principali aziende del settore.
Il framework proposto si rivolge esclusivamente alle aziende che sviluppano modelli di IA di frontiera, definiti da criteri quali potenza computazionale, costi di sviluppo, performance nei benchmark e fatturato annuo. Secondo le stime di Anthropic, le aziende con un fatturato annuo superiore a 100 milioni di dollari o con investimenti in ricerca e sviluppo superiori a 1 miliardo di dollari rientrano in questa categoria. Questa selezione mira a evitare oneri normativi eccessivi per le piccole imprese e i ricercatori indipendenti, concentrandosi invece su chi sviluppa tecnologie con potenziale impatto significativo.
Un elemento centrale del framework è l’introduzione del Secure Development Framework (SDF), un sistema di gestione del rischio che le aziende devono implementare prima di distribuire i loro modelli. L’SDF richiede alle aziende di identificare e mitigare rischi significativi, come quelli legati a minacce chimiche, biologiche, radiologiche e nucleari (CBRN) e malfunzionamenti autonomi dei modelli. Le aziende dovrebbero rendere pubblico l’SDF attraverso il loro sito web aziendale, con possibilità di redigere informazioni sensibili, e aggiornare regolarmente le schede di sistema che descrivono i test effettuati, i risultati delle valutazioni e le strategie di mitigazione del rischio.
Anthropic sottolinea l’importanza di un approccio normativo che sia trasparente e responsabile, ma anche flessibile. Le normative dovrebbero essere snelle e adattabili, evitando di ostacolare l’innovazione nell’intelligenza artificiale. Un approccio eccessivamente prescrittivo potrebbe essere controproducente, soprattutto considerando che i metodi di valutazione diventano obsoleti rapidamente a causa del rapido progresso tecnologico.
La proposta di Anthropic rappresenta un passo significativo verso la creazione di standard condivisi per lo sviluppo responsabile dell’IA. Mentre l’Unione Europea si prepara a implementare l’AI Act, che impone obblighi di trasparenza per i sistemi di IA ad alto rischio, e gli Stati Uniti stanno sviluppando normative correlate, l’iniziativa di Anthropic offre un modello che potrebbe essere adottato a livello federale, statale o internazionale. Questo approccio potrebbe servire da guida per altre aziende e governi, promuovendo una cultura di responsabilità e trasparenza nel settore dell’intelligenza artificiale.