La rapida espansione delle tecnologie di intelligenza artificiale generativa ha dato origine a nuove dinamiche di collaborazione e competizione tra aziende tecnologiche, governi e organizzazioni militari. Un caso recente che evidenzia queste tensioni riguarda il rapporto tra Microsoft e Anthropic, una delle principali startup statunitensi attive nello sviluppo di modelli linguistici avanzati. Nonostante un conflitto emerso tra Anthropic e il Dipartimento della Difesa degli Stati Uniti, Microsoft ha confermato che continuerà a offrire i modelli dell’azienda ai propri clienti commerciali attraverso le sue piattaforme cloud e software, escludendo però l’utilizzo nei progetti direttamente collegati alla difesa.
Anthropic è una società di intelligenza artificiale fondata nel 2021 da ex ricercatori di OpenAI e guidata dall’amministratore delegato Dario Amodei. L’azienda è nota per lo sviluppo della famiglia di modelli linguistici denominata Claude, progettati con un forte orientamento alla sicurezza e all’allineamento etico dei sistemi di intelligenza artificiale. La società opera come public benefit corporation e ha come obiettivo dichiarato lo studio delle proprietà di sicurezza dei modelli AI avanzati e la loro diffusione in modo responsabile.
Negli ultimi anni i modelli Claude sono stati integrati in numerosi ambienti di lavoro e piattaforme cloud, trovando applicazione in ambiti che spaziano dalla produttività aziendale all’analisi dei dati. Questi sistemi appartengono alla categoria dei cosiddetti large language models, architetture basate su reti neurali di tipo transformer addestrate su enormi quantità di testo per comprendere e generare linguaggio naturale. Tali modelli vengono utilizzati per compiti complessi come la generazione di documenti, l’assistenza alla programmazione software, l’analisi semantica di dati testuali e la costruzione di agenti AI capaci di automatizzare attività digitali.
Il rapporto tra Microsoft e Anthropic si inserisce in una più ampia strategia dell’azienda di Redmond volta a offrire ai propri clienti una piattaforma AI multi-modello. Negli ultimi anni Microsoft ha integrato modelli di diversi fornitori nei propri servizi cloud e nei prodotti software destinati al mondo enterprise, consentendo alle organizzazioni di scegliere la tecnologia più adatta alle proprie esigenze operative. In questo contesto i modelli Claude sono stati progressivamente integrati in vari strumenti dell’ecosistema Microsoft, tra cui servizi cloud, piattaforme di sviluppo e ambienti di produttività aziendale.
La decisione di mantenere la collaborazione con Anthropic arriva però in un momento particolarmente delicato dal punto di vista politico e istituzionale. Il Dipartimento della Difesa degli Stati Uniti ha infatti classificato l’azienda come “supply chain risk”, una designazione che impedisce ai fornitori e ai contractor del Pentagono di utilizzare le tecnologie sviluppate dalla startup nei progetti legati alla difesa.
Questa misura rappresenta un evento piuttosto raro, soprattutto considerando che viene applicata a una società tecnologica statunitense. Tradizionalmente tale classificazione è stata utilizzata in contesti legati alla sicurezza nazionale per limitare l’utilizzo di tecnologie considerate potenzialmente problematiche nelle infrastrutture critiche o nei sistemi militari. Nel caso di Anthropic, la decisione è maturata dopo mesi di tensioni tra l’azienda e il Dipartimento della Difesa riguardo alle condizioni di utilizzo dei suoi modelli AI in ambito militare.
Alla base della controversia vi è la posizione adottata da Anthropic riguardo all’impiego dei sistemi di intelligenza artificiale in applicazioni sensibili. L’azienda ha stabilito alcune restrizioni sull’utilizzo dei propri modelli, in particolare per quanto riguarda due ambiti ritenuti particolarmente problematici dal punto di vista etico: la sorveglianza di massa a livello domestico e lo sviluppo di armi completamente autonome. Secondo i dirigenti dell’azienda, tali limitazioni rappresentano linee rosse che non possono essere superate nemmeno in presenza di contratti governativi particolarmente rilevanti.
Questa posizione ha generato un conflitto diretto con il Dipartimento della Difesa, che ha sostenuto la necessità di poter utilizzare le tecnologie AI in tutti gli ambiti ritenuti legali e operativamente utili per le attività militari. Il disaccordo si è progressivamente intensificato fino alla decisione di classificare Anthropic come rischio per la catena di approvvigionamento, una mossa che ha portato alla sospensione dei rapporti contrattuali con il Pentagono e con i fornitori coinvolti nei progetti militari statunitensi.
Nonostante questo contesto, Microsoft ha chiarito che la decisione del Dipartimento della Difesa non impedisce la distribuzione dei modelli Anthropic nei servizi destinati ai clienti commerciali e civili. Dopo aver analizzato il provvedimento dal punto di vista legale, l’azienda ha stabilito che i modelli Claude possono continuare a essere utilizzati nei suoi prodotti, purché non vengano impiegati in progetti direttamente collegati alle attività del Pentagono.
In termini pratici, ciò significa che i clienti aziendali potranno continuare ad accedere alle tecnologie Anthropic attraverso servizi come le piattaforme di produttività Microsoft 365, gli ambienti di sviluppo GitHub e le infrastrutture cloud destinate allo sviluppo di applicazioni basate su intelligenza artificiale. Questi strumenti rappresentano oggi uno dei principali punti di accesso per le imprese che intendono integrare modelli linguistici avanzati nei propri processi operativi.
La scelta di Microsoft evidenzia anche la crescente complessità dell’ecosistema industriale dell’intelligenza artificiale. Le grandi piattaforme cloud stanno infatti costruendo ambienti tecnologici sempre più articolati, in cui modelli provenienti da diversi sviluppatori possono coesistere e essere utilizzati in modo complementare. Questo approccio consente alle imprese di evitare la dipendenza da un singolo fornitore e di sperimentare soluzioni AI diverse a seconda dei contesti applicativi.
Allo stesso tempo, la vicenda mette in luce una questione destinata a diventare sempre più centrale nei prossimi anni: il rapporto tra aziende tecnologiche private e governi nell’utilizzo dell’intelligenza artificiale in ambito militare e di sicurezza nazionale. Le tecnologie AI stanno assumendo un ruolo crescente nelle operazioni militari, nell’analisi dei dati di intelligence e nella pianificazione strategica. Tuttavia, l’impiego di sistemi autonomi in contesti sensibili solleva interrogativi etici e politici che molte aziende tecnologiche stanno iniziando ad affrontare attraverso politiche interne di utilizzo responsabile.
Nel caso di Anthropic, la scelta di mantenere restrizioni sull’uso dei propri modelli rappresenta una posizione particolarmente netta all’interno dell’industria dell’intelligenza artificiale. Questa strategia riflette la filosofia dell’azienda, che ha posto la sicurezza e l’allineamento dei sistemi AI al centro del proprio modello di sviluppo fin dalla fondazione.
