È ancora troppo presto per utilizzare l’intelligenza artificiale per la giustizia penale, afferma il dottorando di Concordia
L’avvocato della difesa penale Neha Chugh ritiene che non ci siano ancora sufficienti garanzie contro i pregiudizi umani o delle macchine

 

L’intelligenza artificiale è pronta a rimodellare il nostro mondo in innumerevoli modi e in quasi tutti i campi. Ciò include il sistema di giustizia penale. Il processo decisionale basato su algoritmi e basato sui dati viene sempre più utilizzato nelle valutazioni del rischio prima del processo negli Stati Uniti come strumento per calcolare il rischio di recidiva di un imputato. I fautori sostengono che ciò rimuove i pregiudizi intrinseci presenti nelle figure della giustizia penale come polizia, giudici o pubblici ministeri.

Tuttavia, un nuovo documento della studentessa di dottorato di Concordia e avvocato della difesa penale Neha Chugh mette in discussione questa affermazione. In esso, Chugh sostiene che le valutazioni del rischio di intelligenza artificiale, pur non essendo ancora utilizzate nei tribunali canadesi, sollevano più segnali d’allarme che il sistema giudiziario deve affrontare. Dice che gli imputati indigeni, che sono già sovrarappresentati nel sistema di giustizia penale, sono particolarmente vulnerabili alle carenze dello strumento.

Scrivendo  sull’IEEE Technology and Society Magazine , Chugh indica il caso storico  Ewert v. Canada  come esempio dei problemi posti dagli strumenti di valutazione del rischio in generale. Jeffrey Ewert è un uomo di Métis che sta scontando l’ergastolo per omicidio e tentato omicidio. Ha sostenuto con successo davanti alla Corte Suprema del Canada che i test utilizzati dai Corrections Services Canada sono  culturalmente prevenuti nei confronti dei detenuti indigeni , tenendoli in prigione più a lungo e in condizioni più restrittive rispetto ai detenuti non indigeni.

” Ewert  ci dice che il processo decisionale basato sui dati ha bisogno di un’analisi delle informazioni che entrano – e delle scienze sociali che contribuiscono alle informazioni che entrano – e di come i pregiudizi influenzano le informazioni che escono”, dice Chugh.

“Se sappiamo che la discriminazione sistemica sta affliggendo le nostre comunità e disinformando i nostri dati di polizia, allora come possiamo essere sicuri che i dati che informano questi algoritmi produrranno i risultati giusti?”

Ci vuole soggettività
L’utilizzo dell’intelligenza artificiale per guidare le valutazioni del rischio, afferma, trasferirebbe semplicemente i pregiudizi dagli esseri umani agli algoritmi creati dall’uomo. Dati errati in entrata portano a dati errati in uscita. “I fautori dell’utilizzo dell’IA in questo modo stanno spostando la responsabilità sui progettisti dell’algoritmo”.

Chugh sottolinea che l’IA è già stata presa in considerazione per l’uso in alcuni tribunali canadesi. In qualità di membro del Consiglio dei governatori della Law Commission of Ontario, ammette di avere riserve sui modi in cui la commissione ha considerato l’uso dell’intelligenza artificiale per questioni come procedimenti giudiziari amministrativi o da parte della polizia come strumenti investigativi.

Uno dei problemi principali che Chugh identifica con un eccessivo affidamento sull’intelligenza artificiale per le valutazioni del rischio e altre considerazioni è l’assenza di discrezionalità e deferenza soggettive. Questi, osserva, sono i pilastri fondamentali di una magistratura indipendente. Le leggi e gli statuti forniscono parametri all’interno dei quali i giudici possono operare e lasciano loro un certo margine di manovra mentre considerano fattori rilevanti come storie e circostanze individuali.

“Credo fermamente nella guida dei nostri tribunali, secondo cui la condanna e la libertà su cauzione sono processi individualizzati e guidati dalla comunità”, afferma.

“Nominiamo i nostri giudici e i nostri decisori in base alla loro conoscenza della comunità. Abbiamo bisogno di esternalizzare tale processo decisionale a un sistema ampio e generalizzato? O vogliamo fare affidamento su un sistema in cui stiamo avendo conversazioni individualizzate con i trasgressori? Preferisco quest’ultimo perché credo che i tribunali possano avere un grande impatto sulle persone”.

Chugh insiste sul fatto che non è completamente contraria all’uso dell’IA nel sistema giudiziario, solo che crede che siano necessarie ulteriori ricerche.

“Siamo arrivati? Secondo me no. Ma se posso essere smentito, sarei il primo a cambiare idea.

Leggi il documento citato: “ Strumenti di valutazione del rischio in prova: i sistemi di intelligenza artificiale vanno? “

 
Strumenti di valutazione del rischio in prova: i sistemi di intelligenza artificiale vanno?

Neha Chugh: “I fautori dell’utilizzo dell’IA in questo modo stanno spostando la responsabilità sui progettisti dell’algoritmo”.
CREDITO
Università della Concordia

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi