Un tribunale federale statunitense ha respinto la richiesta di sospensione presentata da Anthropic contro la decisione del Dipartimento della Difesa degli Stati Uniti di classificare l’azienda come potenziale rischio nella supply chain. La decisione riguarda in particolare l’utilizzo del modello Claude in contesti governativi e militari, segnando un passaggio rilevante nel rapporto tra sistemi di intelligenza artificiale generativa e normative di sicurezza nazionale. La sentenza mantiene quindi in vigore la designazione che limita l’impiego della tecnologia nei sistemi del Dipartimento della Difesa.
La controversia nasce da una precedente decisione amministrativa con cui il Dipartimento della Difesa aveva incluso Anthropic tra i soggetti considerati a rischio per la catena di approvvigionamento. L’azienda aveva contestato la misura sostenendo che la classificazione fosse motivata da posizioni espresse in ambito di sicurezza AI, ritenute critiche verso alcune politiche governative. In una fase iniziale, un tribunale della California aveva temporaneamente sospeso il divieto, riconoscendo possibili elementi di natura “ritorsiva” nella decisione amministrativa. Tuttavia, la corte d’appello federale ha successivamente ribaltato questo orientamento, respingendo la richiesta di blocco e consentendo alla misura di restare in vigore.
La designazione di rischio nella supply chain comporta limitazioni operative per l’integrazione delle tecnologie AI nei sistemi governativi. Questo tipo di classificazione viene utilizzato per prevenire vulnerabilità nella catena di approvvigionamento tecnologico, soprattutto quando le soluzioni software vengono integrate in infrastrutture critiche. Nel caso specifico, la misura incide sull’adozione dei modelli Claude all’interno di ambienti militari o collegati al Dipartimento della Difesa, imponendo restrizioni sull’utilizzo e sull’integrazione nei sistemi informatici sensibili.
La decisione evidenzia l’importanza crescente della sicurezza delle supply chain nell’ambito dell’intelligenza artificiale. I modelli generativi, infatti, non sono più considerati semplici strumenti software ma componenti infrastrutturali potenzialmente critici, in grado di influenzare sistemi decisionali, analisi operative e processi automatizzati. La classificazione di rischio riflette quindi una visione in cui l’AI viene trattata come elemento strategico, soggetto a valutazioni analoghe a quelle applicate all’hardware o alle piattaforme cloud.
Il caso rappresenta anche un precedente significativo per l’intero settore. Le aziende che sviluppano modelli AI destinati a contesti governativi devono affrontare non solo requisiti tecnici ma anche valutazioni di affidabilità, governance e controllo dei dati. La decisione del tribunale rafforza il ruolo delle autorità federali nel definire criteri di sicurezza per l’adozione di modelli generativi in ambiti sensibili, introducendo un ulteriore livello di regolamentazione.
