La recente presa di posizione di Dario Amodei, amministratore delegato di Anthropic, nei confronti del United States Department of Defense ha riportato al centro del dibattito globale una questione strutturale: quali sono i limiti operativi ed etici che un’azienda privata di intelligenza artificiale può e deve imporre quando collabora con apparati militari statali? La controversia riguarda l’uso del modello linguistico Claude in ambito difesa e, più precisamente, le condizioni contrattuali relative ai dispositivi di sicurezza e alle modalità di impiego del sistema.
Nel suo intervento pubblico, Amodei ha dichiarato che, “in coscienza”, non può accettare le condizioni proposte dal Dipartimento della Difesa in materia di garanzie di sicurezza. La posizione di Anthropic si articola attorno a due linee rosse esplicitamente ribadite: l’uso dell’intelligenza artificiale per la sorveglianza interna su larga scala dei cittadini statunitensi e lo sviluppo di sistemi d’arma completamente autonomi operanti senza intervento umano. Secondo l’azienda, consentire deroghe o formulazioni ambigue su questi punti costituirebbe una violazione dei principi fondativi della propria politica di sicurezza.
Dal punto di vista tecnico, la questione non riguarda semplicemente un utilizzo generico di un modello linguistico in ambito governativo, ma la definizione dei confini tra applicazioni di supporto decisionale e applicazioni operative autonome. I modelli di grandi dimensioni come Claude sono progettati per generare testo, analizzare informazioni e supportare processi complessi attraverso inferenze probabilistiche. Tuttavia, integrati in architetture più ampie, possono diventare componenti di sistemi decisionali automatizzati, inclusi quelli con implicazioni militari. La distinzione tra “supporto umano con supervisione” e “autonomia completa” diventa quindi cruciale, sia in termini legali sia in termini di responsabilità etica.
Il Dipartimento della Difesa, attraverso il portavoce Sean Parnell, ha respinto pubblicamente le accuse, affermando che non vi sarebbe alcuna intenzione di utilizzare l’IA per sorveglianza di massa dei cittadini americani, pratica che sarebbe illegale, né per sviluppare armi completamente autonome prive di controllo umano. Allo stesso tempo, il Dipartimento ha chiesto che il modello possa essere utilizzato per “tutti gli scopi legittimi”, sostenendo che restrizioni unilaterali imposte da un fornitore privato potrebbero compromettere operazioni militari critiche e mettere a rischio il personale.
La tensione tra le parti non è soltanto di natura comunicativa ma riflette una divergenza sostanziale sulla governance dell’IA in ambito strategico. Dal lato aziendale, Anthropic rivendica il diritto di imporre vincoli contrattuali coerenti con la propria architettura di sicurezza e con i propri impegni pubblici in materia di AI safety. Dal lato governativo, emerge la posizione secondo cui la politica di difesa e le decisioni operative non possono essere subordinate alle condizioni imposte da un singolo fornitore tecnologico, soprattutto in un contesto di sicurezza nazionale.
Un ulteriore elemento che amplifica la portata del conflitto è la possibile invocazione del Defense Production Act, una legge risalente alla Guerra Fredda che consente al Presidente degli Stati Uniti di requisire o dirigere risorse industriali private per motivi di sicurezza nazionale. L’ipotesi di utilizzare tale strumento come leva negoziale nei confronti di un’azienda americana di intelligenza artificiale sarebbe, secondo diversi esperti, senza precedenti. Dean Ball, ex consigliere politico presso l’Office of Science and Technology Policy della Casa Bianca, ha osservato di non essere a conoscenza di casi in cui tale potere sia stato impiegato come strumento di pressione in una trattativa commerciale di questo tipo.
Sul piano tecnico-operativo, il nodo centrale riguarda l’integrazione dei modelli di IA nei sistemi militari. Un modello linguistico come Claude può essere utilizzato per analisi di intelligence, sintesi di documentazione, supporto alla pianificazione logistica o elaborazione di grandi quantità di dati non strutturati. In tali contesti, il rischio percepito dall’azienda è che l’uso possa evolvere verso applicazioni che, pur formalmente conformi alla legge, risultino in tensione con i principi dichiarati di non impiego per sorveglianza di massa o per decisioni letali completamente automatizzate. Il confine tra analisi avanzata dei dati e sorveglianza sistematica può essere sottile quando si parla di strumenti capaci di correlare informazioni su larga scala.
Parallelamente, la questione delle armi autonome si inserisce in un dibattito internazionale più ampio sulla responsabilità umana nel ciclo decisionale militare. I sistemi cosiddetti “human-in-the-loop” prevedono un controllo e una validazione umana prima dell’esecuzione di azioni critiche. I sistemi “human-out-of-the-loop”, invece, possono operare senza intervento diretto. La posizione di Anthropic sembra voler evitare che i propri modelli siano integrati in architetture di questo secondo tipo. Dal punto di vista giuridico e strategico, tuttavia, la definizione operativa di tali categorie può variare e generare ambiguità contrattuali.
Il dibattito pubblico che ne è seguito evidenzia una frattura più profonda. Da un lato vi è chi sostiene che un’azienda privata non dovrebbe poter influenzare in modo sostanziale le capacità operative di sicurezza nazionale di uno Stato sovrano. Dall’altro lato, vi è chi ritiene che le imprese di IA, essendo proprietarie della tecnologia e responsabili dei suoi effetti sistemici, abbiano non solo il diritto ma il dovere di imporre vincoli etici stringenti, soprattutto in ambiti ad alto rischio come quello militare.
La scadenza indicata per una decisione definitiva sul contratto e l’eventuale interruzione della partnership pongono inoltre una questione di continuità operativa e di rischio per la catena di fornitura. In caso di rescissione, Anthropic ha dichiarato di voler supportare una transizione graduale verso un altro fornitore, al fine di evitare interruzioni nelle operazioni. Questo aspetto sottolinea come l’integrazione di modelli di IA nei sistemi governativi sia ormai così profonda da richiedere pianificazioni di sostituzione complesse, analoghe a quelle di infrastrutture critiche.
