Immagine AI

Negli ultimi anni l’intelligenza artificiale è diventata una componente strutturale delle infrastrutture digitali utilizzate da imprese, governi e organizzazioni pubbliche. Tuttavia, mentre l’attenzione si concentra spesso sui modelli, sulle capacità dei sistemi e sulle loro implicazioni etiche, un problema meno visibile ma sempre più critico riguarda la supply chain dell’AI, cioè l’insieme di dipendenze tecniche, software e organizzative che collegano modelli, piattaforme cloud, strumenti di sviluppo e applicazioni finali.

Un recente episodio che ha coinvolto il Dipartimento della Difesa degli Stati Uniti e la società di intelligenza artificiale Anthropic ha portato alla luce un problema strutturale che riguarda non solo le istituzioni pubbliche ma anche le aziende private: la difficoltà di identificare con precisione dove e come i sistemi di AI siano effettivamente utilizzati all’interno dei flussi operativi. L’analisi pubblicata da VentureBeat evidenzia come questa mancanza di visibilità rappresenti oggi uno dei principali punti deboli della sicurezza informatica nel contesto dell’adozione di tecnologie AI.

Il caso nasce da una direttiva federale che ha imposto alle agenzie governative statunitensi di cessare l’utilizzo della tecnologia sviluppata da Anthropic, concedendo un periodo di transizione di sei mesi per rimuovere tali strumenti dai sistemi operativi. Questa decisione ha immediatamente sollevato una questione pratica: molte organizzazioni non sapevano con precisione in quali parti della propria infrastruttura tecnologica fossero utilizzati i modelli di Anthropic, né attraverso quali servizi o fornitori terzi tali tecnologie fossero integrate.

Questo scenario evidenzia una trasformazione fondamentale nella natura stessa delle supply chain tecnologiche. In passato, le catene di approvvigionamento erano associate principalmente a componenti fisiche come hardware, microchip o infrastrutture di rete. Oggi, invece, gli algoritmi e i modelli di intelligenza artificiale possono rappresentare elementi altrettanto critici della catena tecnologica, influenzando direttamente decisioni operative, analisi dei dati e processi automatizzati.

Uno degli aspetti più problematici riguarda il fatto che le dipendenze tecnologiche dell’AI non si limitano al rapporto diretto tra un’organizzazione e il fornitore del modello. In molti casi, i modelli vengono utilizzati indirettamente tramite piattaforme SaaS, servizi cloud o strumenti software che integrano componenti AI senza che l’utente finale ne sia pienamente consapevole. Questo significa che l’adozione di un singolo servizio digitale può introdurre numerose dipendenze invisibili lungo la catena tecnologica, coinvolgendo fornitori di secondo o terzo livello.

La difficoltà nel tracciare queste relazioni emerge chiaramente dai dati citati nell’analisi. Un’indagine condotta nel 2026 su responsabili della sicurezza informatica aziendale ha rilevato che solo il 15% dei Chief Information Security Officer dichiara di avere una visibilità completa sulla propria supply chain software. Parallelamente, quasi la metà dei lavoratori intervistati ha dichiarato di utilizzare strumenti di intelligenza artificiale senza approvazione formale dell’azienda, contribuendo alla diffusione di tecnologie non documentate all’interno delle infrastrutture informatiche.

Questo fenomeno è spesso definito come shadow AI, un’evoluzione del concetto di shadow IT che si era diffuso con l’adozione massiccia di applicazioni cloud e servizi SaaS. Nel caso dell’AI, tuttavia, il problema assume caratteristiche più complesse. Mentre le applicazioni tradizionali lasciano tracce evidenti come account, database o log di accesso, i modelli di intelligenza artificiale possono essere invocati dinamicamente tramite API e integrati all’interno di applicazioni esistenti senza una presenza esplicita nell’infrastruttura aziendale.

Di conseguenza, le organizzazioni possono utilizzare sistemi di AI senza sapere quale modello stia effettivamente elaborando i dati o quale provider sia coinvolto nel processo. Questo problema diventa particolarmente critico quando un fornitore tecnologico viene improvvisamente escluso da una catena di approvvigionamento, come accaduto nel caso della disputa tra Anthropic e il governo statunitense.

La tensione tra l’azienda e il Pentagono è emersa dopo che Anthropic ha rifiutato di modificare alcune limitazioni etiche integrate nei propri modelli di intelligenza artificiale, in particolare quelle relative all’uso della tecnologia per sistemi di sorveglianza di massa o per armi completamente autonome. Il rifiuto ha portato le autorità statunitensi a classificare l’azienda come un possibile rischio per la supply chain della sicurezza nazionale, con conseguenze dirette sui contratti governativi e sull’uso dei suoi sistemi nelle infrastrutture militari.

Questo episodio dimostra come la dipendenza da specifici modelli di intelligenza artificiale possa diventare un fattore strategico non solo per le imprese ma anche per le istituzioni pubbliche. A differenza delle tecnologie software tradizionali, i sistemi di AI influenzano direttamente l’analisi dei dati, i processi decisionali e l’automazione operativa, rendendo la loro sostituzione più complessa rispetto alla semplice migrazione da un software a un altro.

Inoltre, i modelli di AI possono avere effetti a cascata su interi ecosistemi tecnologici. Quando un’organizzazione utilizza un modello per generare codice, analizzare dati o supportare decisioni operative, i risultati prodotti dal sistema diventano parte integrante dei processi successivi. La rimozione del modello può quindi avere conseguenze che vanno ben oltre il semplice aggiornamento di un componente software, influenzando pipeline di dati, sistemi automatizzati e flussi decisionali già in produzione.

Dal punto di vista della sicurezza informatica, questo scenario introduce nuove categorie di rischio. Le organizzazioni devono considerare non solo la sicurezza dei propri sistemi interni, ma anche la sicurezza e l’affidabilità dei modelli di AI integrati nelle applicazioni utilizzate quotidianamente. Ciò implica la necessità di sviluppare strumenti e metodologie in grado di monitorare l’utilizzo dei modelli, tracciare le chiamate API e identificare le dipendenze tecnologiche lungo l’intera catena di approvvigionamento digitale.

Gli esperti di sicurezza suggeriscono che le strategie di gestione della supply chain dell’AI debbano evolversi rispetto ai modelli tradizionali di governance IT. Invece di limitarsi a mantenere un inventario statico dei fornitori software, le organizzazioni devono costruire sistemi di monitoraggio dinamico capaci di tracciare in tempo reale le interazioni tra applicazioni, modelli e infrastrutture cloud. Questo approccio consente di individuare le dipendenze effettive dei sistemi di AI e di valutare rapidamente l’impatto di eventuali cambiamenti nella catena tecnologica.

L’importanza di questa visibilità diventerà sempre più evidente con l’espansione dell’AI nelle infrastrutture critiche. Settori come difesa, sanità, finanza e logistica stanno integrando modelli di intelligenza artificiale in processi decisionali complessi, rendendo necessario un controllo più rigoroso sulle tecnologie utilizzate.

Il caso Anthropic-Pentagono rappresenta quindi un esempio concreto di come l’intelligenza artificiale stia trasformando il concetto stesso di supply chain tecnologica. Non si tratta più soltanto di sapere quali componenti hardware o software siano presenti in un sistema, ma di comprendere l’intera rete di modelli, dati e servizi che contribuiscono al funzionamento delle applicazioni basate su AI.

Man mano che l’adozione dell’intelligenza artificiale continuerà a crescere, la capacità di mappare e governare questa rete di dipendenze diventerà un elemento fondamentale della sicurezza informatica e della gestione del rischio tecnologico. Le organizzazioni che riusciranno a sviluppare una visione completa della propria supply chain dell’AI saranno meglio preparate ad affrontare interruzioni improvvise, cambiamenti normativi o conflitti geopolitici che potrebbero influenzare l’accesso alle tecnologie su cui si basano i loro sistemi digitali.

Di Fantasy