Le agenzie per la cybersicurezza dei Paesi del G7, insieme alla Commissione Europea, pubblicano nuove linee guida dedicate al Software Bill of Materials per i sistemi di intelligenza artificiale, introducendo una struttura condivisa per aumentare trasparenza, tracciabilità e sicurezza lungo l’intera supply chain AI. L’iniziativa coinvolge, tra gli altri, l’Agenzia per la Cybersicurezza Nazionale italiana, la statunitense CISA, il BSI tedesco, l’ANSSI francese e il National Cyber Security Centre britannico, con l’obiettivo di creare uno standard operativo comune per documentare componenti, modelli, dataset e infrastrutture utilizzate nei sistemi AI.
Il concetto di Software Bill of Materials, già utilizzato nel software tradizionale per identificare librerie, dipendenze e componenti presenti in un’applicazione, viene esteso all’intelligenza artificiale attraverso un framework più ampio e complesso. Nei sistemi AI infatti non devono essere tracciati soltanto moduli software e framework, ma anche modelli linguistici, dataset di addestramento, pipeline di elaborazione, infrastrutture hardware, sistemi di inferenza e misure di sicurezza applicate lungo il ciclo di vita del modello.
Le linee guida pubblicate dal G7 definiscono sette cluster principali di informazioni considerate fondamentali per un SBOM dedicato all’AI. Tra questi figurano metadata generali, proprietà del sistema AI, informazioni sui modelli utilizzati, provenienza e caratteristiche dei dataset, infrastrutture fisiche e virtuali necessarie all’esecuzione, controlli di cybersecurity e indicatori di performance del sistema. L’obiettivo è rendere i sistemi AI maggiormente verificabili e auditabili, soprattutto nei contesti critici dove la trasparenza della filiera tecnologica assume un valore strategico.
Uno degli aspetti più rilevanti riguarda la sicurezza della supply chain dell’intelligenza artificiale. I moderni sistemi AI dipendono infatti da una combinazione estremamente articolata di modelli open source, dataset esterni, librerie software, servizi cloud e componenti infrastrutturali distribuiti. La mancanza di visibilità su questi elementi rende più difficile individuare vulnerabilità, manipolazioni, dipendenze critiche o rischi derivanti da componenti compromessi. L’AI SBOM viene quindi progettato come uno strumento di governance tecnica destinato a migliorare monitoraggio, gestione del rischio e risposta agli incidenti.
Le raccomandazioni del G7 non vengono presentate come standard obbligatori, ma come baseline condivisa destinata ad evolversi progressivamente insieme alle tecnologie AI. Le agenzie coinvolte sottolineano infatti che il framework dovrà adattarsi alla rapida evoluzione dei modelli generativi, dei sistemi agentici e delle infrastrutture AI distribuite. Parallelamente, viene evidenziata la necessità di integrare gli AI SBOM con strumenti di vulnerability management, security scanning e monitoraggio continuo della supply chain software.
L’iniziativa si inserisce in un contesto internazionale caratterizzato da crescente attenzione verso la governance tecnica dell’intelligenza artificiale. Con l’espansione dei modelli AI nei settori sanitario, industriale, finanziario, difesa e infrastrutture critiche, la possibilità di conoscere con precisione componenti, origine dei dati e dipendenze operative viene considerata un requisito sempre più importante per garantire sicurezza, conformità normativa e affidabilità dei sistemi automatizzati.
