L’intelligenza artificiale costituisce una minaccia per la sicurezza nazionale, avverte l’organo di vigilanza antiterrorismo britannica. I servizi di sicurezza temono che la nuova tecnologia possa essere utilizzata per adescare persone vulnerabili.

Secondo l’organo di vigilanza antiterrorismo, i creatori di intelligenza artificiale devono abbandonare la loro mentalità “utopica tecnologica”. Si teme che la nuova tecnologia possa essere utilizzata per adescare individui vulnerabili.

Jonathan Hall KC, incaricato di valutare l’adeguatezza della legislazione antiterrorismo, ha affermato che la minaccia per la sicurezza nazionale derivante dall’IA sta diventando sempre più evidente e che la tecnologia deve essere progettata tenendo saldamente in considerazione le intenzioni dei terroristi.

Ha sottolineato che lo sviluppo dell’IA si concentra troppo sugli aspetti positivi della tecnologia, trascurando il modo in cui i terroristi potrebbero utilizzarla per compiere attacchi.

“Hanno bisogno di avere in sala un piccolo e orribile neonazista di 15 anni che lavora con loro, cercando di capire cosa potrebbe fare. Bisogna predisporre le difese contro ciò che si sa che le persone faranno con essa”, ha affermato Hall.

Il revisore indipendente della legislazione antiterrorismo del governo ha ammesso di essere sempre più preoccupato dalle capacità dei chatbot basati sull’intelligenza artificiale di convincere individui vulnerabili o neurodivergenti a compiere attacchi terroristici.

“Quello che mi preoccupa è la suggestibilità delle persone quando sono immerse in questo mondo e il computer fa da intermediario. L’uso del linguaggio, nel contesto della sicurezza nazionale, è importante perché alla fine è il linguaggio che persuade le persone a compiere azioni”.

Si ritiene che i servizi di sicurezza siano particolarmente preoccupati dalla capacità dei chatbot basati sull’IA di adescare i bambini, che rappresentano già una parte crescente dei casi di terrorismo seguiti dall’MI5.

Mentre aumentano le richieste di regolamentazione della tecnologia a seguito degli avvertimenti della scorsa settimana da parte dei pionieri dell’IA che potrebbe minacciare la sopravvivenza della razza umana, è previsto che il primo ministro Rishi Sunak solleverà la questione durante il suo viaggio negli Stati Uniti mercoledì per incontrare il presidente Biden e alti funzionari del Congresso.

Nel Regno Unito, gli sforzi si stanno intensificando per affrontare le sfide per la sicurezza nazionale poste dall’IA, con una partnership tra l’MI5 e l’Alan Turing Institute, l’ente nazionale per la scienza dei dati e l’intelligenza artificiale, che sta guidando la strada.

Alexander Blanchard, ricercatore etico digitale nel programma di difesa e sicurezza dell’istituto, ha dichiarato che il loro lavoro con i servizi di sicurezza indica che il Regno Unito sta affrontando estremamente seriamente le sfide per la sicurezza presentate dall’IA.

“C’è molta volontà tra i responsabili delle politiche di difesa e sicurezza di capire cosa sta accadendo, come gli attori potrebbero utilizzare l’IA e quali sono le minacce. C’è davvero la sensazione di dover tenere il passo con ciò che sta accadendo. Si sta lavorando per comprendere quali sono i rischi, quali sono i rischi a lungo termine e quali sono i rischi per la tecnologia di prossima generazione”.

La scorsa settimana, Sunak ha dichiarato che il Regno Unito desidera diventare un centro globale per l’IA e la sua regolamentazione, sostenendo che potrebbe apportare “enormi benefici all’economia e alla società”. Sia Blanchard che Hall affermano che la questione centrale riguarda il mantenimento dell'”autonomia cognitiva” – il controllo – da parte degli esseri umani sull’IA e come questo controllo venga integrato nella tecnologia.

La potenziale capacità dell’IA di adescare rapidamente individui vulnerabili nelle loro stanze da letto sta diventando sempre più evidente, afferma Hall.

Venerdì, Matthew King, 19 anni, è stato condannato all’ergastolo per aver pianificato un attacco terroristico, e gli esperti hanno notato la velocità con cui è stato radicalizzato dopo aver visto materiale estremista online.

Hall ha affermato che le aziende tecnologiche devono imparare dagli errori della passata superficialità: i social media sono stati una piattaforma chiave per lo scambio di contenuti terroristici in passato.

Hall ha aggiunto che è necessaria una maggiore trasparenza da parte delle aziende che sviluppano tecnologie basate sull’IA, in particolare riguardo al numero di dipendenti e moderatori impiegati.

“Dobbiamo avere assoluta chiarezza su quante persone stanno lavorando su queste cose e sulla loro moderazione”, ha detto. “Quante persone sono effettivamente coinvolte quando dicono che hanno delle precauzioni in atto? Chi controlla le precauzioni? Se hai un’azienda composta da due persone, quanto tempo dedicano alla sicurezza pubblica? Probabilmente poco o nulla”.

Hall ha suggerito che potrebbero essere necessarie nuove leggi per affrontare la minaccia terroristica derivante dall’IA, al fine di contrastare il pericolo crescente rappresentato dalle armi autonome letali, dispositivi che utilizzano l’IA per selezionare i loro bersagli.

Hall ha affermato: “Stiamo parlando di un tipo di terrorista che desidera l’impunità, che desidera essere in grado di ‘volare e dimenticare’. Possono letteralmente lanciare un drone in aria e andarsene. Nessuno sa cosa deciderà la sua intelligenza artificiale. Potrebbe semplicemente lanciarsi su una folla, ad esempio. Le nostre leggi penali catturano questo tipo di comportamento? Generalmente, il terrorismo riguarda l’intento, l’intento umano piuttosto che l’intento delle macchine”.

Le armi autonome letali o “munizioni in sosta” sono già state impiegate sui campi di battaglia dell’Ucraina, sollevando questioni di moralità sulle implicazioni di una macchina autonoma di uccisione in volo.

“L’IA può imparare e adattarsi, interagendo con l’ambiente e migliorando il proprio comportamento”, ha detto Blanchard.

Di ihal