L’aeronautica militare statunitense utilizza l’IA sul jet militare: un momento di svolta per l’IA in difesa
L’aeronautica americana, in un recente tentativo, ha utilizzato l’intelligenza artificiale su un aereo spia Lockheed U-2 in un volo di addestramento, per controllare i suoi sensori e sistemi di navigazione. Si ritiene che questo sia il primo di un tale tentativo in cui l’intelligenza artificiale è stata utilizzata negli aerei militari statunitensi. Sebbene l’aereo sia stato guidato da un pilota umano senza armi coinvolte, gli esperti nel settore della difesa ritengono che questo sia un momento di svolta nella difesa e oggetto di intenso dibattito nelle comunità di controllo delle armi.
Quando gli è stato chiesto del tentativo, il segretario aggiunto dell’Air Force Will Roper ha affermato che un tale sforzo di sfruttare intelligentemente l’intelligenza artificiale nel sistema militare statunitense dà origine a una “nuova era di teaming uomo-macchina e competizione algoritmica”. È un dato di fatto, ritiene che non riuscire a realizzare il pieno potenziale dell’intelligenza artificiale porterà a “cedere il vantaggio decisionale ai nostri avversari”.
Secondo le fonti, il sistema di intelligenza artificiale utilizzato per l’aereo spia è stato deliberatamente progettato senza un override manuale per testarne le capacità nell’ambiente di test. Tuttavia, è stato relegato a compiti altamente specifici ed è stato separato dai controlli di volo dell’aereo. A causa della natura delicata del lavoro, l’Air Force ha mantenuto anonimo il nome del pilota, condividendo solo il suo nominativo: “Vudu”.
Il pilota che ha effettuato il test ha dichiarato ai media che tecnicamente era il pilota al comando e il ruolo dell’intelligenza artificiale era relativamente ristretto. Tuttavia, “per il compito, l’IA è stata progettata, ha funzionato bene”, ha affermato il pilota.
L’algoritmo AI, d’altra parte, è stato soprannominato ARTUµ, un apparente riferimento a Star Wars, responsabile dell’occupazione dei sensori e della navigazione tattica, secondo le notizie diffuse dall’Air Force.
Inoltre, è stato spiegato che il sistema AI è stato addestrato per cercare missili e lanciamissili in arrivo, come un volo di prova iniziale. Inoltre, mentre dirigeva i sensori dell’aereo, l’IA era progettata per avere l’ultima chiamata.
Questa iniziativa mirava ad avvicinare l’Air Force e il settore militare alle macchine in cui i robot saranno responsabili di compiti tecnici con controllo diretto degli esseri umani. Roper ha affermato che l’umano, alla fine, avrà il controllo delle decisioni di vita o di morte come il controllo del volo e il targeting.
ARTUµ è stato sviluppato sulla base di algoritmi software open-source – µZero, sviluppato dalla società di ricerca AI DeepMind per giochi strategici come Chess and Go, ed è stato adattato dall’U-2 Federal Laboratory. ARTUµ è stato ulteriormente reso disponibile al pubblico attraverso un Kubernetes sviluppato da Google, che ha consentito al sistema di intelligenza artificiale di funzionare con i sistemi informatici di bordo dell’aereo.
Tradizionalmente, l’aereo spia Lockheed U-2 non è stato sviluppato per un volo abilitato all’IA, ma è stato costruito all’inizio degli anni ’50 per essere utilizzato dalla CIA nella sorveglianza della Guerra Fredda da altitudini incredibili di 60.000 o 70.000 piedi. Tuttavia, nello scenario attuale, gli aerei sono stati acquistati dal Dipartimento della Difesa.
Considerando che gli aerei erano noti per il suo lavoro di sorveglianza, è stato ben equipaggiato con l’intelligenza artificiale per analizzare dati complessi. Il programma – Progetto Maven dell’Air Force, è stato creato per analizzare rapidamente i dati dalle riprese dei droni, ma a causa del contraccolpo dei suoi dipendenti, Google ha rifiutato di rinnovare lo stesso. Il gigante della tecnologia in seguito ha rilasciato una serie di principi di intelligenza artificiale che l’hanno costretta a ignorare gli algoritmi dell’azienda dall’utilizzo in qualsiasi sistema d’arma.
Detto questo, Eric Schmidt, che ha guidato Google fino al 2011, ritiene che sia difficile per le forze armate statunitensi abbracciare pienamente le armi autonome in qualsiasi momento presto. Questo è solo a causa dell’incertezza che l’AI deve affrontare mentre si esibisce nei possibili scenari, “compresi quelli in cui è in gioco la vita umana”. Secondo lui, mentre gli esseri umani che uccidono civili per errore è una tragedia, l’IA che fa lo stesso è un disastro.
In effetti, nessuno si assumerà la responsabilità di un sistema così incerto. Tuttavia, questa iniziativa era solo per creare la possibilità per i militari di lavorare con l’IA.