Anthropic ha recentemente annunciato il lancio di “Claude Gov”, un modello di intelligenza artificiale creato appositamente per rispondere alle esigenze delle agenzie di difesa e intelligence degli Stati Uniti. Si tratta di un passo significativo nel panorama dell’IA, poiché Claude Gov rappresenta la prima soluzione di intelligenza artificiale fornita ufficialmente per usi legati alla sicurezza nazionale, seguendo una tendenza che altre aziende del settore stanno anch’esse abbracciando.

Presentato il 6 giugno, Claude Gov è stato progettato per svolgere compiti governativi complessi e delicati, come la pianificazione strategica, il supporto alle operazioni e l’analisi di intelligence. Sebbene Anthropic non abbia divulgato il nome dell’agenzia governativa che già utilizza questo modello né il periodo esatto del suo impiego, ha confermato che Claude Gov è attualmente in uso presso la principale agenzia per la sicurezza nazionale degli Stati Uniti.

Rispetto ai modelli di IA tradizionali destinati al consumo generale o ad ambiti aziendali, Claude Gov si distingue per una gestione più flessibile e ottimizzata delle informazioni sensibili. Il modello è infatti meno vincolato nelle risposte, consentendo una migliore elaborazione di dati riservati, pur mantenendo elevati standard di sicurezza. Inoltre, è stato potenziato per comprendere con maggiore efficacia documenti tecnici e specialistici tipici dei settori militari e di intelligence, così come per interpretare lingue straniere e dialetti complessi, migliorando significativamente il suo supporto operativo.

Anthropic ha precisato che, pur avendo superato i test di sicurezza previsti per i suoi modelli, sono state apportate modifiche ad alcune regole d’uso, in particolare per consentire alle agenzie governative di adattare le restrizioni in base ai loro mandati legali e operativi. Rimangono comunque vietati usi come la progettazione di armi, operazioni informatiche dannose o sistemi di censura, anche se con alcune eccezioni contrattuali personalizzate per le istituzioni governative.

Questo sviluppo risponde alla crescente attenzione verso l’impiego di intelligenze artificiali nel settore pubblico, dove già OpenAI, con il suo modello ChatGPT Enterprise, supporta oltre 90.000 dipendenti di enti governativi statali, locali e federali per attività come redazione di documenti, traduzioni, riassunti e sviluppo di codice. Anche Scale AI è coinvolta in programmi dedicati all’uso dell’IA per la pianificazione militare, collaborando con il Dipartimento della Difesa degli Stati Uniti.

Anthropic, inoltre, è parte del programma FedStart di Palantir, una piattaforma SaaS rivolta alle agenzie governative americane, che facilita l’espansione della sua presenza nel mercato B2G (business-to-government).

L’introduzione di modelli di IA nelle attività governative non è però esente da controversie, soprattutto sul piano etico. Diverse critiche si sono concentrate su possibili discriminazioni, violazioni della privacy e usi impropri come il riconoscimento facciale, algoritmi predittivi nel settore criminale o decisioni relative ai servizi sociali. Tali problematiche hanno alimentato movimenti di opposizione come “No Tech for Apartheid”, che denunciano l’uso della tecnologia per scopi oppressivi.

In risposta a queste preoccupazioni, Anthropic ha ribadito la sua politica aziendale, che vieta l’impiego dei suoi prodotti per la fabbricazione di armi, l’incitamento alla violenza o attività illegali, e ha sottolineato l’importanza di bilanciare l’utilizzo dell’IA tra benefici concreti e potenziali rischi quando questi strumenti vengono adottati da enti governativi.

Di Fantasy