Secondo un prossimo studio dell’American Criminal Law Review, è “fuorviante e controproducente” bloccare l’uso di algoritmi di apprendimento automatico nel sistema giudiziario sulla base del fatto che alcuni di essi potrebbero essere soggetti a pregiudizi razziali.
L’uso dell’intelligenza artificiale da parte di giudici, pubblici ministeri, polizia e altre autorità giudiziarie rimane “il mezzo migliore per superare il pregiudizio e la discriminazione pervasivi che esistono in tutte le parti del sistema di giustizia penale profondamente imperfetto”, afferma lo studio.
I sistemi algoritmici sono utilizzati in vari modi nel sistema giudiziario degli Stati Uniti in pratiche che vanno dall’identificazione e previsione dei “punti caldi” del crimine alla sorveglianza in tempo reale. Più di 60 tipi di strumenti di valutazione del rischio sono attualmente utilizzati dai sistemi giudiziari di tutto il Paese, di solito per valutare se le persone debbano essere trattenute in detenzione prima del processo o possano essere rilasciate dietro loro riconoscimento.
Gli strumenti di valutazione del rischio, che assegnano pesi a punti di dati come arresti precedenti e l’età dell’autore del reato, sono stati criticati da attivisti, giudici, pubblici ministeri e alcuni criminologi che affermano di essere soggetti a pregiudizi. E l’opinione pubblica riflette la stessa diffidenza. Secondo un sondaggio del 2019 citato nel rapporto, il 58% degli americani non riteneva appropriato utilizzare un algoritmo per prendere decisioni sulla libertà vigilata.
Gli autori dello studio ammettono che molti degli algoritmi sono tutt’altro che perfetti, ma sostengono che lasciarli cadere del tutto rimuoverebbe un importante contrappeso alla fallibilità umana.
Il rapporto, intitolato “La soluzione al pregiudizio pervasivo e alla discriminazione nella giustizia penale: intelligenza artificiale trasparente”, avverte che “l’avversione algoritmica” spiega gran parte della sfiducia nei confronti dei sistemi computerizzati che utilizzano l’intelligenza artificiale.
Nella loro analisi di come vengono attualmente utilizzati gli algoritmi, gli autori Mirko Bagaric, della Swinburne Law School di Melbourne, Melissa Bull, Dan Hunter e Nigel Stobbs della Queensland University of Technology e Jennifer Svilar della University of Tennesssee College of Law, ha detto che ha più senso risolvere alcuni problemi piuttosto che buttare via completamente lo strumento.
Secondo gli autori, poiché gli algoritmi sono realizzati da esseri umani ma vengono elaborati con la velocità e l’accuratezza di una macchina, hanno il potere di rafforzare i processi a tutti i livelli del sistema di giustizia penale facendo il lavoro più rapidamente e con meno pregiudizi intrinseci.
“Poiché gli algoritmi non hanno sentimenti, l’accuratezza del loro processo decisionale è molto più oggettiva.”
“Sono sempre progettati da esseri umani e quindi la loro capacità ed efficacia sono, come tutti i processi umani, subordinati alla qualità e alla precisione del processo di progettazione e al modo in cui vengono implementati”, ha affermato lo studio. “Inoltre, poiché gli algoritmi non hanno sentimenti, l’accuratezza del loro processo decisionale è molto più oggettiva, trasparente e prevedibile di quella degli esseri umani”.
Molti giudici si sono opposti agli strumenti di valutazione del rischio, sostenendo che la propria esperienza sul banco è un parametro migliore per valutare la probabilità di recidiva di un individuo, ma gli autori affermano che gli algoritmi sono utilizzati al meglio insieme alla valutazione di pubblici ministeri, polizia e giuristi.
Ma senza l’aiuto aggiuntivo, la discriminazione è inevitabile nel sistema, hanno scritto gli autori. “Mentre la legge sulla condanna e il diritto penale non prendono di mira o discriminano espressamente determinati gruppi, molte ricerche critiche hanno dimostrato che in pratica i sistemi di condanna operano in modo discriminatorio”, afferma il rapporto.
La discriminazione si verifica perché le autorità sono spesso sopraffatte da enormi carichi di lavoro e fanno affidamento su stereotipi razziali o di genere senza rendersene conto, al fine di mantenere il processo in movimento. “Le pene più severe per alcuni gruppi all’interno della comunità non possono essere disgiunte dalla realtà che la discrezionalità della condanna, che fa parte del processo decisionale giudiziario, porta inevitabilmente a sentenze basate, almeno in parte, sulle predisposizioni personali dei giudici”, ha detto il rapporto.
Il problema si estende oltre la razza. Pregiudizi preconcetti su età, povertà, valori culturali, convinzioni politiche ed esperienza nel lavoro giocano tutti un ruolo nelle decisioni prese a ogni livello del sistema di giustizia penale. “Le persone presumono che ‘i loro giudizi siano incontaminati’ da pregiudizi impliciti, ma tutte le persone, compresi i giudici, sono influenzati dal loro percorso di vita e ‘sono più favorevolmente disposti verso ciò che è familiare, e temono o si sentono frustrati con ciò che non è familiare'”, ha detto il rapporto.
Gli autori utilizzano Google Maps e le previsioni del tempo come modello per spiegare cosa entra in un algoritmo. Google Maps utilizza grandi quantità di informazioni geospaziali da tutto il mondo per prevedere con precisione il percorso migliore per un utente. Allo stesso modo, le previsioni meteorologiche utilizzano i dati di centinaia di migliaia di osservazioni, palloni meteorologici e milioni di satelliti per fornire alle persone la previsione più accurata di cosa aspettarsi quando camminano fuori.
Un altro esempio è il pilotaggio automatico. L’algoritmo negli aerei moderni consente ai piloti di volare con il pilota automatico, ma richiede comunque che siano addestrati su come pilotare un aereo in caso di guasto dell’algoritmo.
Strumenti algoritmici come Compstat e PredPol, sebbene affrontino dibattiti sulla loro accuratezza, suggeriscono che “i sistemi di polizia predittiva sono statisticamente più propensi a prevedere quando e dove si verificheranno alcuni crimini rispetto ai soli analisti del crimine umano”, afferma il rapporto. “
Gli algoritmi possono formare relazioni tra due variabili, portando i critici a temere che la discriminazione nei confronti dei gruppi svantaggiati persisterà anche nell’uso degli algoritmi. “Anche quando gli algoritmi sono ritenuti efficaci, c’è ancora la preoccupazione che” perpetueranno “le disparità razziali all’interno del sistema di giustizia penale” “, ha riconosciuto il rapporto.
Si teme inoltre che l’utilizzo di algoritmi per condurre processi come la valutazione del rischio danneggi negativamente i giovani, poiché l’età può influire sull’idea di recidività o sui tassi di criminalità. Se l’età viene utilizzata come variabile all’interno dell’algoritmo che aumenta la possibilità di reato, una persona più giovane potrebbe potenzialmente avere una maggiore possibilità di ricevere un importo della cauzione o una valutazione del rischio più elevati.
Un altro problema con gli algoritmi è quando vengono utilizzati nella videosorveglianza o nel software di riconoscimento facciale. Sebbene una certa sorveglianza possa essere utilizzata per rilevare sospetti o notificare alla polizia segni di aggressione, l’uso di algoritmi per rilevare volti e sorvegliare costantemente la comunità solleva la preoccupazione della privacy.
Tuttavia, gli autori hanno notato che nella società digitale odierna, la privacy è già un concetto complicato. Anche così, i filmati di sorveglianza vengono spesso visualizzati solo “quando un computer rileva qualcosa che suggerisce che è stato commesso un crimine o che un delinquente è stato riconosciuto”, hanno detto gli autori. “Pertanto, per la maggior parte, gli individui saranno potenzialmente osservabili, non costantemente osservati o monitorati dalle forze dell’ordine”.
C’è anche una generale mancanza di trasparenza nel modo in cui operano gli algoritmi. Ma gli autori notano che la discrezionalità giudiziaria, senza l’uso di dati, può portare a decisioni altrettanto “discutibili”. “Gli algoritmi possono replicare tutta l’elaborazione umana di alto livello, ma hanno il vantaggio di elaborare enormi quantità di informazioni molto più rapidamente degli esseri umani”, hanno affermato gli autori, sottolineando la forza degli algoritmi, in quanto elaborano i dati a una velocità che gli esseri umani semplicemente non può corrispondere. “La ricerca suggerisce che sebbene la valutazione del rischio e gli strumenti di valutazione del rischio e dei bisogni siano tutt’altro che perfetti, i migliori strumenti, amministrati da personale ben addestrato, possono prevedere la recidiva con una precisione del 70%”, afferma il rapporto.
Gli autori hanno raccomandato diverse riforme all’uso degli algoritmi in materia di giustizia penale moderna, incluso l’aumento della trasparenza del modo in cui gli algoritmi sono progettati, più equità negli algoritmi stessi e rendendo gli algoritmi più coerenti in modo che le decisioni siano affidabili e riducano le disparità tra i diversi gruppi.
“Gli algoritmi possono aiutare a riformare il sistema di giustizia penale, ma” devono essere applicati con attenzione e testati regolarmente per confermare che funzionano come previsto “”, hanno affermato gli autori.
Non sono perfetti, “ma sono superiori ai giudizi espressi dagli esseri umani”.