Negli ultimi tempi, l’interesse del pubblico verso l’intelligenza artificiale si è concentrato soprattutto sugli aspetti ricreativi, ma la nuova tecnologia ha un’applicazione molto più seria e preoccupante che riguarda le guerre. Infatti, l’AI viene già utilizzata in Ucraina: il conflitto ha anticipato l’uso dell’intelligenza artificiale in guerra, portando sul campo di battaglia strumenti e programmi ancora da perfezionare. Ora, l’innovazione è nell’agenda dei leader militari e politici di tutto il mondo, e si è svolto il primo vertice internazionale sull’uso militare responsabile dell’Ai, che ha stimolato una discussione etica e le principali preoccupazioni riguardanti l’arrivo dell’Ai nei conflitti.
Il summit, chiamato Reaim, ha avuto luogo a L’Aia, in Olanda, ed è stato organizzato dal governo olandese per porre il tema dell’Ai nel mondo militare più in alto nell’agenda politica internazionale. All’evento hanno partecipato delegati di 50 Paesi, fra cui Stati Uniti e Cina, ma i Paesi Bassi e la Corea del Sud, co-organizzatrice, non hanno invitato la Russia. Inoltre, erano presenti anche aziende private, come ad esempio Palantir, una compagnia statunitense specializzata nelle nuove tecnologie e nell’analisi di big data, che ha ammesso il proprio coinvolgimento nel conflitto in Ucraina. L’impresa sfrutta l’intelligenza artificiale per colpire obiettivi russi ed è quindi a supporto della nazione di Kiev. Palantir offre servizi che consentono di analizzare i movimenti satellitari e i feed dei social media per aiutare a visualizzare la posizione di un nemico, consentendo all’esercito ucraino di prendere di mira carri armati e artiglieria nemica.
L’intelligenza artificiale offre un importante vantaggio strategico nei contesti di guerra, in quanto favorisce la possibilità di automatizzare compiti ripetitivi e consente una maggiore accuratezza e precisione nelle operazioni di combattimento. Pertanto, non sorprende che sia una delle innovazioni più ricercate utilizzate oggi nelle guerre. I sistemi di imaging basati sull’intelligenza artificiale possono fornire un’immagine precisa di ciò che sta accadendo in una situazione di combattimento, consentendo colpi più precisi e meno danni collaterali. Inoltre, i sistemi di posizionamento basati sull’intelligenza artificiale consentono una maggiore precisione nel puntamento di munizioni esplosive e nella navigazione di aerei da combattimento e altre unità di combattimento. Il software e gli algoritmi basati sull’intelligenza artificiale offrono la possibilità di elaborare grandi quantità di dati in modo rapido e accurato per ottenere informazioni preziose.
Tuttavia, già nelle innovazioni di tendenza recenti, come ChatGPT e programmi simili, l’intelligenza artificiale ha dimostrato di assorbire i nostri bias, i pregiudizi attraverso cui elaboriamo la realtà che ci circonda. Lo stesso problema non può che essere aggravato in situazioni dove c’è di mezzo la vita di singoli individui. Durante una tavola rotonda di Reaim, il segretario generale di Amnesty International Agnès Callamard ha respinto l’idea che sia possibile rimuovere i pregiudizi dall’Ai se utilizzata in un contesto militare e ha affermato che può portare alcuni gruppi a essere presi di mira più di altri. “Non possiamo semplicemente pensare che in questa stanza ci siano solo brave persone che useranno questa intelligenza per la difesa”, ha detto Callamard.
La maggior parte delle delegazioni presenti al summit olandese dovrebbe approvare una dichiarazione di principi nelle prossime settimane o mesi, anche se le regole internazionali o un trattato per limitare l’uso dell’Ai in guerra sono indicate come ancora lontane. Nel frattempo, gli effetti dell’uso bellico dell’intelligenza artificiale sono già evidenti nel territorio ucraino. È quindi importante che i governi esaminino quale parte dei loro budget per la difesa sarà destinata ai progressi della tecnologia, soprattutto perché la conversazione è cambiata negli ultimi sei mesi.
In conclusione, l’intelligenza artificiale offre molte opportunità interessanti, ma l’uso bellico di questa tecnologia solleva numerose preoccupazioni etiche. È quindi essenziale che i leader mondiali discutano in modo aperto e trasparente su come regolamentare l’uso dell’intelligenza artificiale in guerra, al fine di minimizzare gli effetti negativi su civili e militari.