I governi sono avvisati: il tempo per regolare le macchine da combattimento intelligenti è limitato. Con la proliferazione rapida di sistemi d’arma autonomi, anche in zone di conflitto come l’Ucraina e Gaza, l’intelligenza artificiale (IA) sta già influenzando le decisioni militari su quali obiettivi colpire.
Alcuni leader, come il ministro degli Esteri austriaco Alexander Schallenberg, lo paragonano all’era di Oppenheimer, il fisico coinvolto nella creazione della bomba atomica, sottolineando l’importanza del controllo.
A Vienna, rappresentanti di oltre 100 paesi si sono riuniti per discutere su come regolare l’intersezione tra IA e tecnologie militari. Ma ci sono sfide: gli investimenti nella IA alimentano la corsa agli armamenti, spingendo le azioni verso valutazioni record.
Secondo Jaan Tallinn, investitore in DeepMind di Alphabet, la competizione globale e gli incentivi finanziari complicano il controllo dei robot assassini.
Mentre il Pentagono investe milioni in start-up di IA, alcuni, come il fisico Anthony Aguirre, sottolineano l’urgente necessità di un trattato sul controllo delle armi.
Ma gli approcci tradizionali al controllo delle armi potrebbero non funzionare, poiché l’IA ha usi civili e militari. Alcuni suggeriscono di utilizzare leggi esistenti, come controlli sulle esportazioni e leggi umanitarie, per regolare le armi IA.
Tuttavia, il ministro degli Esteri della Costa Rica, Arnoldo André Tinoco, avverte che la disponibilità diffusa di armi autonome cambierà per sempre la stabilità internazionale, aprendo la porta a attori non statali e terroristi. Questo rende urgente l’elaborazione di nuove regole per affrontare questa minaccia emergente.