I ricercatori del Pacific Northwest National Laboratory (PNNL) stanno tentando di rendere l’IA spiegabile ai fini della non proliferazione nucleare e della sicurezza nazionale. L’obiettivo è rendere trasparenti le decisioni restituite dai modelli di intelligenza artificiale per qualsiasi decisione riguardante la sicurezza nucleare.

Viene prestata più attenzione che mai all’importanza di modelli di intelligenza artificiale spiegabili, nel tentativo di risolvere il problema della “scatola nera” dell’apprendimento automatico . I modelli di IA sono spesso considerati affidabili per prendere decisioni complesse anche quando i responsabili dell’esecuzione di tali decisioni non comprendono la logica alla base di tali decisioni. Maggiore è il potenziale di catastrofe e pericolo in cui vengono prese tali decisioni, più importante è che la logica alla base di tali decisioni sia trasparente.

Potrebbe non essere necessario comprendere il ragionamento alla base delle classificazioni se un’applicazione di intelligenza artificiale sta facendo qualcosa di semplice come la categorizzazione di immagini di frutta, ma per i casi che coinvolgono armi nucleari o produzione di materiale nucleare, è meglio aprire la scatola nera sottostante l’IA impiegata in queste scenari.

Gli scienziati del PNNL stanno lavorando per rendere l’IA spiegabile utilizzando una varietà di nuove tecniche. Questi ricercatori stanno lavorando a fianco dell’ufficio per la ricerca e sviluppo della non proliferazione nucleare (DNN R&D) del Dipartimento per la sicurezza nucleare nazionale (NNSA) del Dipartimento per l’energia. La DNN R&D è responsabile della supervisione della capacità degli Stati Uniti di monitorare e rilevare la produzione di materiale nucleare, lo sviluppo di armi nucleari e la detonazione di armi nucleari in tutto il mondo.

Dato quanto sono alti i rischi quando si tratta di questioni relative alla non proliferazione nucleare, è fondamentale sapere come un sistema di intelligenza artificiale raggiunge le sue conclusioni su questi problemi. Angie Sheffield è un senior program manager presso DNN R&D. Secondo Sheffield spesso può essere difficile incorporare nuove tecnologie come i modelli di intelligenza artificiale nelle tecniche e nei framework scientifici tradizionali, ma il processo di incorporazione dell’IA in questi sistemi può essere semplificato progettando nuovi modi di interagire in modo più efficace con questi sistemi. Sheffield sostiene che i ricercatori dovrebbero creare strumenti che consentano agli sviluppatori di capire come funzionano queste tecniche sofisticate.

La relativa scarsità di dati che coinvolgono esplosioni nucleari e sviluppo di armi nucleari significa che l’IA spiegabile è ancora più importante. L’addestramento di modelli di intelligenza artificiale in questo spazio si traduce in modelli che potrebbero essere meno affidabili grazie alla quantità relativamente piccola di dati rispetto a un’attività come il riconoscimento facciale. Di conseguenza, ogni fase del processo utilizzato dal modello per prendere una decisione deve essere ispezionabile.

Mark Greaves, un ricercatore del PNNL, ha spiegato che i rischi inerenti alla proliferazione nucleare impongono un sistema in grado di informare le persone sul motivo per cui è stata selezionata una determinata risposta.

Come ha spiegato Greaves tramite EurekaAlert:

“Se un sistema di intelligenza artificiale fornisce una probabilità errata sul fatto che una nazione possieda un’arma nucleare, questo è un problema di scala completamente diversa. Quindi il nostro sistema deve almeno produrre spiegazioni in modo che gli esseri umani possano verificare le sue conclusioni e utilizzare la propria esperienza per correggere le lacune di addestramento dell’IA causate dalla scarsità di dati “.

Come spiegato da Sheffield, PNNL ha due punti di forza che li aiuteranno a risolvere questo problema. In primo luogo, PNNL ha una notevole esperienza nel campo dell’IA. Inoltre, il team ha una conoscenza significativa del dominio quando si tratta di materiali e armi nucleari. Il team PNNL comprende questioni come l’elaborazione del plutonio e i tipi di segnali unici per lo sviluppo di armi nucleari. La combinazione di esperienza di intelligenza artificiale, esperienza di sicurezza nazionale e conoscenza del settore nucleare significa che PNNL è particolarmente adatto per gestire questioni di sicurezza nazionale nucleare e IA.

Di ihal