Il Dipartimento della Difesa degli Stati Uniti ha chiarito la sua posizione sull’uso dell’intelligenza artificiale (IA) in ambito militare, sottolineando che l’obiettivo principale è migliorare l’efficienza senza trasformare l’IA in un’arma letale.
Raja Plum, Chief Digital and AI Officer del Dipartimento della Difesa, ha dichiarato in un’intervista a TechCrunch che l’IA non viene attualmente utilizzata come arma, ma offre vantaggi significativi nell’identificazione, tracciamento e valutazione delle minacce. Ha aggiunto che l’IA aiuta i comandanti a considerare opzioni di risposta in modo creativo, analizzando diversi scenari.
Questa posizione arriva in un momento in cui diverse aziende tecnologiche, tra cui OpenAI, Meta e Anthropic, hanno iniziato a collaborare con il Dipartimento della Difesa per fornire soluzioni di IA destinate a scopi militari. Ad esempio, Meta ha collaborato con Lockheed Martin per offrire il suo modello “Llama” alle agenzie di difesa, mentre OpenAI ha stretto accordi simili con Anduril.
Plum ha sottolineato l’importanza di definire chiaramente gli usi consentiti per queste tecnologie, assicurando che l’IA venga utilizzata principalmente come strumento di difesa per identificare e mitigare i rischi, piuttosto che come mezzo offensivo. Questa distinzione è fondamentale per garantire che l’adozione dell’IA in ambito militare avvenga in modo etico e responsabile.
Le dichiarazioni di Plum rispondono anche alle crescenti preoccupazioni all’interno delle aziende tecnologiche riguardo all’uso militare dell’IA. In passato, dipendenti di alcune aziende, come Amazon e Google, hanno protestato contro contratti militari, sollevando questioni etiche sull’impiego delle loro tecnologie.