Home / Intelligenza artificiale pericolo / Il governo giapponese sta prendendo in considerazione l’uso dell’intelligenza artificiale (AI) per le decisioni politiche

Il governo giapponese sta prendendo in considerazione l’uso dell’intelligenza artificiale (AI) per le decisioni politiche

Uso di processi decisionali algoritmici e intelligenza artificiale nelle organizzazioni pubbliche


Il governo giapponese sta prendendo in considerazione l’uso dell’intelligenza artificiale (AI) per un rapido processo decisionale politico, in quanto tiene colloqui con Palantir Inc per discutere del possibile utilizzo del sistema di analisi dei big data dell’azienda, secondo notizie recenti .

Per facilitare ciò, ha avviato la ricerca di base e la pianificazione per attuare decisioni politiche basate sull’intelligenza artificiale per questioni nazionali come difesa, sicurezza nazionale, gestione del commercio e anche per controllare la diffusione del nuovo coronavirus.

Quest’ultima mossa completa i piani del primo ministro giapponese Yoshihide Suga, che ha chiesto al governo di accelerare i preparativi per la sua nuova agenzia digitale di punta che accelererà la digitalizzazione in Giappone.

I governi utilizzano processi decisionali algoritmici
Analogamente al governo giapponese, numerose organizzazioni pubbliche in diversi paesi in tutti i settori stanno ora utilizzando dati, intelligenza artificiale e algoritmi per i processi decisionali.

Ad esempio, un consiglio su tre nel Regno Unito utilizza algoritmi informatici per aiutare a prendere decisioni sulle richieste di indennità e su altri problemi di welfare. Diverse organizzazioni pubbliche, anche negli Stati Uniti, tra cui l’ Esercito Research Laboratory , Food and Drug Administration e Center for Disease Control , hanno anche collaborato con Palantir, una società di data science con sede nella silicon valley.

Anche l’India non è rimasta indietro. I governi statali di Delhi e Uttar Pradesh, in collaborazione con l’Indian Space Research Organization, stanno ora utilizzando applicazioni basate sull’intelligenza artificiale per individuare “punti caldi” che li aiuteranno nei processi decisionali per controllare il crimine. L’intelligenza artificiale viene anche utilizzata dallo stato dell’Andhra Pradesh nell’istruzione , per monitorare i bambini e dedicare un’attenzione focalizzata sugli studenti all’identificazione e al contenimento dell’abbandono scolastico.

“Tutti i vantaggi dell’automazione come affidabilità, efficienza e bassa dipendenza umana si applicano all’uso dell’IA in tutte le organizzazioni”, ha affermato Sahil Deo, co-fondatore e CEO di CPC Analytics, una società di consulenza politica basata sui dati.

“Inoltre, in termini di processo decisionale, mentre un esperto di dominio in un particolare campo potrebbe prendere decisioni rapide e accurate in base alla propria esperienza, l’intelligenza artificiale può aiutare le persone con un’esperienza minore a fare lo stesso”, ha affermato Deo.

Rischio di un bias sistemico
Sebbene le decisioni basate sull’intelligenza artificiale possano fornire una maggiore precisione, una preoccupazione importante è l’introduzione di algoritmi che rafforzano i pregiudizi della società.

Tali casi si sono verificati in passato creando bolle di filtro su Internet, pregiudizi razziali nei modelli di recidività negli Stati Uniti e pregiudizi sociali nei modelli di voto delle scuole superiori nel Regno Unito.

Ciò richiede una maggiore trasparenza sui processi decisionali algoritmici o di apprendimento automatico e sui modi per comprendere e verificare come un agente di intelligenza artificiale arriva alle sue decisioni o classificazioni.

“Non esiste uno standard ben definito, o come diciamo noi uno standard d’oro, in termini di quale sia la migliore pratica, per affrontare questo problema”, ha detto Deo, la cui ricerca si concentra sul FATE (Fairness, Accountability, Transparency and Explainability ) di algoritmi, “È ancora un campo in evoluzione e ci vorranno alcuni anni prima che ci sia un consenso”.

Il dottor Daan Kolkman , ricercatore senior nel processo decisionale presso la Jheronimus Academy of Data Science, in questo articolo ha affermato: “Ho scoperto che molti dei vantaggi attribuiti all’uso di algoritmi spesso non si sono concretizzati nei contesti di definizione delle politiche e che la trasparenza algoritmi a non esperti è nel migliore dei casi problematico e nel peggiore dei casi irraggiungibile. “

Il dottor Kolkman sostiene la necessità di istituire un “cane da guardia pubblico” per il processo decisionale algoritmico, poiché la “trasparenza” attualmente non chiarisce realmente cosa comporta nella pratica ed è improbabile che la “spiegabilità” abbia l’effetto desiderato.

Ha detto: “Piuttosto che cercare la trasparenza fine a se stessa, gli sforzi verso la responsabilità algoritmica sarebbero meglio serviti esplorando modi per istituzionalizzare la revisione e il controllo degli algoritmi”.

Avvolgendo
L’uso di algoritmi, dati e intelligenza artificiale è sempre vantaggioso in vari processi in tutti i settori in quanto fornisce maggiore precisione ed efficienza. Tuttavia, l’adozione di tali tecnologie da parte delle organizzazioni pubbliche dovrebbe garantire l’equità, soprattutto quando potrebbe avere un impatto socio-politico diretto sulle persone poiché le decisioni politiche dipenderanno da esso.

È importante stabilire quadri, istituzioni e infrastrutture legali adeguate per ritenere responsabili questi algoritmi.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi