Robotic Hand Signing Document On Wooden Desk In Courtroom

Le insidie ​​dell’IA che potrebbero prevedere l’esito delle cause giudiziarie 

Le aziende cercano da tempo tecnologie che promettano un vantaggio nella lotta al contenzioso. Per la maggior parte delle aziende, il lavoro sui casi rappresenta un notevole consumo di risorse. Nel 2020, le aziende statunitensi hanno  speso un totale di $ 22,8 miliardi di dollari in contenziosi; lo studio legale Fulbright & Jaworski ha stimato nel 2005 che quasi il 90% delle aziende è coinvolto in qualche tipo di contenzioso e che l’azienda media saldi su un dossier di 37 cause legali.

Con la democratizzazione dell’IA e degli strumenti di analisi, era forse inevitabile che le startup iniziassero ad applicare tecniche predittive al campo legale, in particolare data l’enorme opportunità di mercato. ( Secondo Statista, i ricavi del segmento della tecnologia legale potrebbero raggiungere i 25,17 miliardi di dollari nel 2025.) Ad esempio, Ex Parte , una società di analisi predittiva fondata dall’ex avvocato Jonathan Klein, afferma di utilizzare l’intelligenza artificiale e l’apprendimento automatico per prevedere l’esito del contenzioso e raccomandare azioni che le aziende possono intraprendere per “ottimizzare le proprie probabilità di vincita”.

 
Ma gli esperti sono scettici sul fatto che l’IA possa prevedere eventi tanto complessi quanto il modo in cui si svolgeranno le cause legali. Come ha detto  Mike Cook, un membro del collettivo di ricerca Knives & Paintbrushes, ci sono una serie di fattori nel contenzioso che i dati utilizzati per “insegnare” un sistema di intelligenza artificiale potrebbero non catturare, portando a previsioni errate o potenzialmente distorte. “Puoi sicuramente addestrare un’IA per prevedere le cose – puoi addestrare un’IA per prevedere tutto ciò che ti piace – ma non sempre impara ciò che pensi stia imparando”, ha detto in un’intervista. “Quando si tratta di casi legali, ci sono molte cose che non vediamo e molte che non possiamo dare a un’IA su cui allenarci, il che significa che potrebbe finire per imparare solo una parte del quadro”.

Un mercato in crescita
Ex Parte non è l’unico venditore che afferma di essere in grado di prevedere l’esito delle cause legali. Blue J Legal, con sede a Toronto, in Canada, afferma di essere in grado di stimare i risultati delle controversie con un’accuratezza del 90%, attingendo a modelli formati sui corpi di precedenti rilevanti e sullo schema dei fatti di un caso. ArbiLex, un concorrente, si concentra sull’arbitrato, presentando alle aziende metriche come quanto costerà un caso e la probabilità di chi potrebbe vincere. 

 
“Il mercato legale ha assistito a un’esplosione di prodotti di intelligenza artificiale, in particolare nell’apprendimento automatico e nell’elaborazione del linguaggio naturale. Gli usi includono il miglioramento della gestione dei contratti, l’acquisizione di informazioni sui dati operativi dell’ufficio legale e dello studio legale e l’analisi del diritto pubblico statunitense”, ha detto a VentureBeat il direttore della ricerca senior di Gartner Ron Friedmann via e-mail. “Il sistema legale statunitense dispone di un vasto volume di leggi pubblicamente accessibili, comprese le decisioni dei tribunali, le sentenze delle agenzie, le mozioni e le memorie. A partire dagli anni ’80, parti della legge statunitense sono diventate disponibili online, principalmente per recuperare documenti. Intorno al 2010 sono emerse startup che hanno offerto una visione più approfondita della legge disponibile al pubblico”.

Ex Parte – che ha recentemente raccolto 7,5 milioni di dollari in finanziamenti di serie A, anche da Ironbound Partners e R8 Capital dell’ex governatore dell’Illinois Bruce Rauner – genera raccomandazioni per qualsiasi contenzioso aziendale, come se risolvere e quali affermazioni far valere, dove intentare o difendere una causa e quali avvocati e studi legali potrebbero offrire le migliori possibilità di successo. Klein afferma che la piattaforma può prevedere correttamente l’esito dei casi circa l’85% delle volte.

“Ci sono molte sfide tecniche e concettuali associate alla costruzione di un modello solido di causa. I dati legali sono per loro natura disparati, non strutturati e semantici”, ha affermato Klein in una nota. “Abbiamo risolto questi problemi combinando una comprensione altamente specializzata del campo legale con competenze avanzate in AI, apprendimento automatico ed elaborazione del linguaggio naturale. La nostra missione è essere il principale fornitore mondiale di soluzioni decisionali basate sui dati nel campo del diritto e fornire ai nostri clienti un vantaggio vincente”.

La storia recente, tuttavia, è piena di esempi di come i dati problematici possano influenzare le previsioni della tecnologia legale dell’IA in modi sfavorevoli.

 
Il sistema giudiziario statunitense ha adottato strumenti di intelligenza artificiale che in seguito sono stati trovati per mostrare pregiudizi nei confronti di imputati appartenenti a determinati gruppi demografici. Forse il più famigerato di questi è il Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) di Northpointe, progettato per prevedere la probabilità di una persona di diventare recidiva. Un rapporto di ProPublica  ha  rilevato che COMPAS era molto più propenso a giudicare erroneamente gli imputati neri a maggior rischio di recidiva rispetto agli imputati bianchi, segnalando allo stesso tempo gli imputati bianchi come a basso rischio più spesso degli imputati neri.

Pubblicato lo scorso dicembre, uno studio separato  condotto  da ricercatori di Harvard e dell’Università del Massachusetts ha rilevato che il Public Safety Assessment (PSA), uno strumento di misurazione del rischio che i giudici possono scegliere di utilizzare per decidere se un imputato debba essere rilasciato prima di un processo, tende a consiglia una condanna troppo severa. È probabile che il PSA imponga un legame in contanti agli arrestati maschi rispetto alle donne arrestate, secondo i ricercatori, un potenziale segno di pregiudizio di genere.

Nel luglio 2018, più di 100 organizzazioni per i diritti civili e comunitarie, tra cui ACLU e NAACP  , hanno firmato  una dichiarazione in cui esortavano a non utilizzare strumenti algoritmici di valutazione del rischio come COMPAS e PSA.

Potenziali rischi
La posta in gioco è più bassa nei casi in cui Ex Parte e altre startup di analisi predittiva focalizzate sull’azienda si occupano attualmente, ovviamente. (Klein afferma che i clienti di Ex Parte includono hedge fund, studi legali, compagnie assicurative, società finanziarie di contenzioso e università.) E ricercatori come Cook riconoscono che alcune controversie, come le comuni controversie immobiliari e altri lavori legali “generici”, potrebbero essere all’interno il reale della possibilità di prevedere. Ma Cook avverte che se la tecnologia dovesse essere ampiamente adottata, potrebbe creare un ciclo di feedback “strano” e imprevedibile poiché l’IA futura apprenderà dai risultati dei casi previsti dall’IA di oggi.

 
“Una cosa che dobbiamo ancora esplorare correttamente con sistemi di intelligenza artificiale come questo è l’impatto che hanno sul loro ecosistema semplicemente esistendo. Se questo sistema diventasse lo standard, tra 20 anni, addestreremmo questi sistemi sui risultati dei casi decisi dall’IA… Quindi, anche se per ora funziona, potrebbe creare delle strane situazioni in futuro”, ha affermato Cook. “[I] se immagini che questo venga applicato a cose legali noiose, a basso rischio e innocue, forse non è così male. Ma se immaginiamo che si trasformi in enormi processi, casi che coinvolgono la vita di persone reali e questioni importanti, penso che diventi un’idea molto più triste e imprevedibile”.

Os Keyes, un esperto di intelligenza artificiale presso l’Università di Washington, ha anche espresso preoccupazione per il modo in cui l’IA predittiva dei casi potrebbe perpetuare la disuguaglianza nel sistema giudiziario. In un futuro in cui i clienti più ricchi, siano essi aziende o persone, attingono ai consigli sui casi basati sull’intelligenza artificiale, supponendo che la tecnologia funzioni, coloro che non possono sfruttare lo stesso potrebbero essere svantaggiati.

Gli imputati ben finanziati hanno già vantaggi nel sistema giudiziario, come sottolineato dall’avvocato Kiernan McAlpine in un recente post su Quora . I clienti facoltosi possono permettersi di risolvere casi che rischiano di perdere e pagare per costosi avvocati di scoperta e pre-traccia. Hanno anche i budget per pagare esperti con conoscenze di alto livello e capacità di testimonial, nonché aziende con conoscenze legali arcane.

Alcuni esperti sostengono che questi vantaggi valgono anche ai massimi livelli della magistratura. Adam Cohen, l’autore di Supreme Inequality: The Supreme Court’s 50-Year Battle for a More Unjust America , afferma che i giudici conservatori della Corte Suprema – che raramente votano per revocare le condanne dei poveri imputati criminali – hanno mostrato una chiara simpatia per i ricchi. Uno studio ha rilevato che il giudice conservatore Antonin Scalia ha votato per gli imputati in circa il 7% dei casi penali non impiegatizi e nell’82% di quelli impiegatizi.

 
“Il risultato del lavoro di [questa tecnologia di previsione dei casi di intelligenza artificiale] sarà – e non lo dico alla leggera – spaventoso per la società”, ha detto Keyes a VentureBeat via e-mail. “[S]appiamo già che c’è una grande differenza nei risultati tra i clienti poveri e indigenti e quelli ricchi, e la ragione di ciò è, in gran parte, il reperimento delle risorse. La promessa di questa [tecnologia] … è di peggiorare le cose: accumulare ancora più risorse nell’angolo di coloro che già ce l’hanno”.

Robotic Hand Signing Document On Wooden Desk In Courtroom

Di ihal