Immagine AI

L’ascesa di Anduril, la startup statunitense del settore della difesa, ha rappresentato per anni l’emblema di un nuovo approccio allo sviluppo militare: rapido, agile e profondamente radicato nell’Intelligenza Artificiale. Fondata nel 2017 da Palmer Luckey e valutata oltre 30 miliardi di dollari, l’azienda ha ottenuto contratti significativi con le forze armate USA per lo sviluppo di armi e sistemi autonomi, vantando una filosofia che privilegia la velocità e l’innovazione indipendente rispetto ai lunghi e cauti processi delle aziende di difesa tradizionali. Tuttavia, una serie di difetti tecnici e problemi di sicurezza emersi durante i recenti test con l’esercito statunitense sta sollevando critiche pressanti e mettendo in luce i rischi intrinseci in questo modello di sviluppo “incentrato sulla velocità”.

L’episodio più clamoroso è stato riportato dal Wall Street Journal e riguarda un esperimento condotto dalla Marina statunitense al largo della costa della California, che coinvolgeva oltre trenta veicoli di superficie senza pilota (unmanned surface vehicles). Durante l’esercitazione, circa la metà di queste imbarcazioni ha inaspettatamente rifiutato i comandi e si è automaticamente arrestata in acqua.

Questi droni si sono bloccati dopo aver attivato i propri dispositivi di sicurezza, generando una situazione di potenziale pericolo, in particolare il rischio di collisione con altre imbarcazioni. L’emergenza ha costretto il personale militare a trascorrere la notte a rimorchiare le imbarcazioni a riva per risolvere il guasto.

La causa del problema risiedeva nel software operativo autonomo di Anduril, Lattice, utilizzato dalle navi coinvolte. Un rapporto interno della Marina ha espresso preoccupazioni estremamente serie, affermando che Anduril aveva fornito “informazioni false all’esercito” e avvertendo che, se il software non fosse stato verificato a fondo, sussisterebbe il rischio di “gravi pericoli e perdite di vite umane”.

L’incidente in mare non è stato un evento isolato. Le critiche si concentrano sul fatto che la strategia di sviluppo rapido e “guerrigliero” di Anduril, pur permettendo all’azienda di lanciare prodotti con tempistiche record (come velivoli da combattimento senza pilota, apparecchiature per la realtà estesa e sistemi di gestione del campo di battaglia basati sull’IA), sta producendo effetti collaterali significativi in termini di affidabilità.

L’azienda ha registrato numerosi guasti durante le fasi di test: ad agosto, un guasto al motore ha bloccato a terra il velivolo da combattimento senza pilota Fury in California. Un altro sistema di droni, Anvil, ha causato un incendio di 22 acri durante un test in Oregon. Anche sul fronte operativo, come nel contesto ucraino, sono stati segnalati problemi di prestazioni, con il drone suicida Altius che non è riuscito a colpire il bersaglio, precipitando.

Di fronte a queste critiche, Anduril non ha negato i fallimenti, ma li ha inquadrati come un rischio naturale e inevitabile del suo approccio. L’azienda ha riconosciuto l’esito negativo dell’esperimento navale, descrivendolo come “un rischio naturale che può presentarsi durante il rapido ciclo di sviluppo, test, fallimento e miglioramento”.

Pochi giorni dopo la risoluzione del bug nel software, l’azienda ha subito annunciato il completamento con successo di una successiva missione autonoma, a riprova della sua capacità di iterazione veloce. Anduril ha inoltre tentato di ridimensionare la sua responsabilità, sostenendo che il problema navale fosse stato causato da un’imbarcazione prodotta da Blacksea Technologies, piuttosto che direttamente dal software Lattice.

La filosofia di Anduril è che il progresso tecnologico nella difesa non può più permettersi la lentezza dei processi burocratici tradizionali. L’azienda ha sottolineato di effettuare test “cinque giorni alla settimana, 52 settimane all’anno”, rendendo “prevedibile che occasionalmente si verifichino incidenti”. La critica mediatica, secondo Anduril, avrebbe “esagerato i fallimenti dei test a offset singolo”, mancando di cogliere il punto cruciale dell’innovazione: il progresso tecnologico, in particolare nell’IA applicata alla difesa, richiede “test costanti, interruzioni intenzionali del sistema e iterazioni rapide”.

Gli esperti, tuttavia, evidenziano che Anduril sta attraversando un periodo difficile anche a causa di una carenza di preparazione organizzativa rispetto alle aziende di difesa con maggiore esperienza. Sebbene la strategia di sviluppo rapido possa accelerare l’introduzione di nuove armi, essa pone un interrogativo fondamentale: fino a che punto il desiderio di velocità possa giustificare i rischi di guasti e malfunzionamenti in sistemi che potrebbero avere conseguenze letali sul campo di battaglia? Il dibattito non riguarda solo l’efficacia del software di Anduril, ma il modello stesso di startup applicato al settore della difesa e l’equilibrio tra innovazione rapida e l’imperativo della sicurezza.

Di Fantasy