Immagine AI

La recente decisione di Amazon, Google e Microsoft di confermare la disponibilità delle tecnologie di Anthropic per i propri clienti aziendali segna un momento di netta distinzione tra le politiche di sicurezza nazionale e il mercato del cloud commerciale. Nonostante il Dipartimento della Difesa degli Stati Uniti (DoD) abbia ufficialmente designato Anthropic come “rischio per la catena di approvvigionamento” il 5 marzo 2026, i principali fornitori di servizi infrastrutturali hanno concluso, a seguito di rigorose revisioni legali, che tale restrizione è applicabile esclusivamente ai carichi di lavoro legati alla difesa e alla sicurezza nazionale. Questa presa di posizione unitaria garantisce che l’accesso ai modelli della famiglia Claude rimanga inalterato per il settore privato, le istituzioni accademiche e le organizzazioni non governative, preservando la continuità operativa di migliaia di imprese che hanno integrato l’intelligenza artificiale nei propri flussi di lavoro.

Dal punto di vista tecnico e infrastrutturale, il sostegno di Amazon e Google verso Anthropic è radicato in investimenti miliardari che vanno ben oltre la semplice fornitura di software. Amazon, attraverso AWS, sta portando a compimento il “Project Rainier”, un mastodontico cluster di calcolo situato in Indiana che ospita circa 500.000 chip Trainium 2. Questa infrastruttura, progettata specificamente per l’addestramento di modelli linguistici di frontiera, rappresenta uno dei più grandi sistemi di calcolo non basati su hardware Nvidia al mondo. Parallelamente, Google ha consolidato la propria partnership fornendo ad Anthropic l’accesso a circa un milione di TPU (Tensor Processing Units) di settima generazione, note come “Ironwood”. Questi accordi dimostrano come Anthropic sia una componente strutturale dell’offerta cloud di entrambi i giganti, rendendo tecnicamente e commercialmente difficile un distacco totale richiesto dalle pressioni politiche.

La controversia legale nasce dal rifiuto di Anthropic di rimuovere determinati “guardrail” etici dai propri modelli, in particolare quelli che proibiscono l’uso dell’IA per la sorveglianza di massa domestica e per lo sviluppo di armi letali completamente autonome. Il governo statunitense ha interpretato queste restrizioni come una limitazione alla sovranità del comando militare, invocando logiche di sicurezza solitamente riservate ad aziende straniere ostili. Tuttavia, esperti di diritto e dirigenti delle Big Tech sostengono che l’estensione di tale bando a tutte le agenzie federali e al settore civile manchi di una solida base giuridica. La Corte ha già iniziato a esaminare i ricorsi, poiché l’applicazione del concetto di “rischio di fornitura” a un’azienda americana trasparente e tecnologicamente integrata come Anthropic appare contraddittoria rispetto alle finalità originali delle normative vigenti.

Mentre il Pentagono ha avviato un piano di transizione di sei mesi per sostituire Claude con soluzioni alternative, le aziende del cloud hanno ribadito il loro impegno nel supportare Anthropic attraverso piattaforme come AWS Bedrock, Google Vertex AI e Microsoft Azure AI Foundry. Questa resilienza dell’ecosistema commerciale suggerisce che, nonostante le tensioni geopolitiche e le direttive dell’amministrazione Trump, il mercato dell’intelligenza artificiale per scopi civili continuerà a seguire logiche di efficienza tecnica e prestazioni. La sfida per i prossimi mesi sarà dunque la gestione della dicotomia tra un settore della difesa che richiede accesso senza restrizioni e un settore aziendale che vede nei protocolli di sicurezza e nell’etica di Anthropic un valore aggiunto fondamentale per la propria reputazione e stabilità operativa.

Di Fantasy