OpenAI Modifica la Politica sull’Uso Militare della Sua Tecnologia

OpenAI ha recentemente modificato la sua politica d’uso, rimuovendo una specifica proibizione sull’impiego delle sue tecnologie per scopi militari. Fino al 10 gennaio, la pagina delle “politiche d’uso” di OpenAI includeva un divieto esplicito su “attività ad alto rischio di danno fisico”, inclusi lo sviluppo di armi e l’uso militare e bellico. La nuova politica mantiene il divieto di “utilizzare il nostro servizio per danneggiare te stesso o altri”, dando come esempio lo “sviluppo o uso di armi”, ma la proibizione generale sull’uso “militare e bellico” è stata rimossa.

La revisione non annunciata fa parte di una riscrittura più ampia della pagina, che secondo l’azienda mira a rendere il documento “più chiaro” e “più leggibile”, includendo molti altri cambiamenti sostanziali nel linguaggio e nella formattazione.

Cambiamenti e Implicazioni

OpenAI ha dichiarato di voler creare un insieme di principi universali che siano facili da ricordare e applicare, in particolare perché i loro strumenti sono ora utilizzati a livello globale. Un principio come “Non nuocere agli altri” è ampio ma facilmente comprensibile e rilevante in numerosi contesti. Tuttavia, Heidy Khlaaf, direttore di ingegneria presso la società di cybersecurity Trail of Bits, ha sottolineato che la nuova politica sembra enfatizzare la legalità più della sicurezza. “Sviluppare armi e svolgere attività legate al militare e alla guerra è legale in varia misura,” ha detto Khlaaf, aggiungendo che le implicazioni per la sicurezza dell’IA sono significative.

Le Conseguenze nel Mondo Reale

Le conseguenze reali di questa politica non sono chiare. L’anno scorso, The Intercept ha riportato che OpenAI non aveva chiarito se avrebbe applicato il proprio divieto chiaro su “militare e guerra” di fronte all’aumento dell’interesse da parte del Pentagono e della comunità di intelligence degli Stati Uniti.

L’Uso Militare dell’Intelligenza Artificiale

Nonostante attualmente nulla di ciò che OpenAI offre possa essere utilizzato direttamente per uccidere, ogni esercito è nell’attività di uccidere o almeno mantenere la capacità di farlo. Ci sono molti compiti “adiacenti all’uccisione” che un modello di linguaggio come ChatGPT potrebbe aumentare, come scrivere codice o elaborare ordini di approvvigionamento. Una recensione dei bot personalizzati alimentati da ChatGPT suggerisce che il personale militare statunitense stia già utilizzando la tecnologia per velocizzare la burocrazia.

Partnership e Prospettive Future

Esperti che hanno esaminato i cambiamenti di politica hanno indicato che OpenAI sembra indebolire silenziosamente la sua posizione contro il fare affari con i militari. Lucy Suchman, professore emerita di antropologia della scienza e della tecnologia presso la Lancaster University, ha suggerito che il passaggio da “militare e guerra” ad “armi” lascia aperto uno spazio per OpenAI per supportare le infrastrutture operative purché l’applicazione non coinvolga direttamente lo sviluppo di armi in senso stretto.

Conclusioni

Le modifiche arrivano in un momento in cui i militari di tutto il mondo sono ansiosi di incorporare tecniche di apprendimento automatico per ottenere un vantaggio; il Pentagono sta ancora esplorando cautamente come potrebbe utilizzare ChatGPT o altri modelli di linguaggio di grandi dimensioni. Nonostante le preoccupazioni espresse da alcuni leader militari statunitensi sull’accuratezza e la sicurezza nell’uso di questi strumenti, il Pentagono rimane generalmente desideroso di adottare strumenti di intelligenza artificiale. 

Di ihal