Il presidente degli Stati Uniti Donald Trump ha emesso una direttiva formale con cui ordina a tutte le agenzie federali di interrompere immediatamente l’uso delle tecnologie di intelligenza artificiale sviluppate da Anthropic, la società di IA fondata da ex ricercatori di sicurezza di modelli linguistici che aveva reso il proprio sistema Claude uno dei più avanzati e diffusamente utilizzati all’interno di enti governativi e militari USA. La decisione, resa pubblica alla fine di febbraio 2026, non è isolata né priva di implicazioni tecniche e politiche: essa segue un conflitto aperto tra il Dipartimento della Difesa (renominato “Department of War”) e Anthropic sulla possibilità di rimuovere o allentare le salvaguardie di sicurezza imposte dalla società sul proprio modello, in particolare riguardo all’uso per la sorveglianza interna o per sistemi d’arma autonomi senza supervisione umana.
La portata della decisione si estende oltre la semplice rimozione di un fornitore tecnologico. La tecnologia Claude di Anthropic, basata su modelli di linguaggio di grande scala e progettata con una forte enfasi sulla sicurezza tramite un insieme di guardrails etici, era stata adottata in ambienti governativi, compresi alcuni con requisiti di sicurezza elevati. Secondo le politiche aziendali di Anthropic, l’uso diretto di Claude per sorveglianza di massa o per sistemi senza supervisione umana era vietato, e proprio questa posizione ha costituito il fulcro dello scontro con esponenti della difesa federale. Il Dipartimento della Difesa aveva fissato un ultimatum alla società affinché consentisse un accesso più ampio e meno condizionato alla sua tecnologia, ritenendo tali restrizioni incompatibili con esigenze operative in scenari di difesa e di risposta rapida.
Dal punto di vista operativo e di sicurezza informatica, l’ordine presidenziale richiede un’azione immediata da parte delle agenzie per rimuovere gli strumenti e i modelli di Anthropic dai propri sistemi, con un periodo di transizione di sei mesi per completare la fase di dismissione ove la tecnologia fosse già integrata. Questa imposizione ha un impatto diretto su architetture, pipeline di dati e applicazioni che erano state costruite attorno alle API e ai modelli di Claude, costringendo team di ingegneri e responsabili IT a ripensare l’infrastruttura tecnica utilizzata per automazione, assistenza, analisi e altre funzioni basate su IA. La dismissione richiede inoltre un’attenta gestione della sicurezza dei dati migrati, della continuità dei servizi e della compatibilità con alternative tecnologiche che dovranno sostituire le capacità precedentemente fornite da Anthropic.
La designazione di Anthropic come “supply chain risk” da parte del Segretario della Guerra implica inoltre un effetto di isolamento prolungato: non solo le agenzie federali devono cessare l’uso diretto della tecnologia, ma ai contractor e partner di difesa è stato imposto di non intrattenere attività commerciali con la società, una misura che normalmente viene applicata a entità considerate ostili o legate a potenziali avversari stranieri. Tale etichetta tecnica non è priva di conseguenze concrete, poiché potenzialmente limita la capacità di Anthropic di operare nei mercati correlati alla difesa e alla sicurezza nazionale, interrompendo catene di fornitura digitali e integrative su cui molte applicazioni mission-critical facevano affidamento.
Dal punto di vista normativo e di governance dell’IA, la disputa ha al centro una tensione crescente tra eticità dell’uso dell’intelligenza artificiale e requisiti di difesa nazionale. Anthropic aveva chiarito pubblicamente che avrebbe mantenuto certi guardrails nel proprio codice etico definitivo — come quello di non consentire a Claude di essere utilizzato per sorveglianza di massa su cittadini americani o per sistemi autonomi capaci di usare la forza senza intervento umano — posizioni con cui intendeva assicurare l’allineamento dei propri modelli a principi di responsabilità. Questa impostazione, pur condivisa da una parte della comunità tecnologica come un elemento di migliore governance dell’IA, ha incontrato la resistenza di funzionari governativi che ritenevano tali limitazioni un freno alla libertà operativa dei sistemi di difesa e di intelligence.
L’interazione tra tecnologia e policy in questo caso non riguarda solo la questione dell’uso delle risorse di AI nei sistemi federali; solleva anche interrogativi più ampi su come debbano essere strutturati i contratti tecnologici nel dominio pubblico quando i fornitori hanno principi etici che possono entrare in conflitto con requisiti strategici di uno Stato. Le società di IA di frontiera hanno cominciato a formulare e pubblicare documenti di sicurezza e linee guida d’uso che definiscono limitazioni volontarie, e questo sta diventando un elemento di contrattazione centrale nelle negoziazioni con grandi entità governative. Tali guardrails non sono meri elementi retorici: richiedono che i modelli siano progettati fin dalla fase di training e validazione in modo da rispettare vincoli di comportamento e di output che possono influenzare il modo in cui le aziende sviluppano i propri modelli e il modo in cui le istituzioni pubbliche scelgono di integrarle nei propri sistemi.
La reazione dell’industria non è stata univoca. Diverse aziende leader nel settore dell’IA, inclusi sviluppatori di modelli concorrenti, hanno espresso preoccupazioni per il potenziale precedente creato da questo episodio, temendo che la pressione governativa su fornitori di tecnologia possa compromettere l’autonomia tecnica o imporre condizioni operative che confliggono con normative etiche e standard di sicurezza. Al contempo, altre realtà tecnologiche stanno cercando di approfittare dei nuovi spazi creati dall’uscita di Anthropic dai contratti federali, cercando di offrire alternative che rispettino sia i requisiti tecnici richiesti sia le necessarie salvaguardie operative.
