Pregiudizio ed equità dei sistemi basati sull’intelligenza artificiale all’interno della criminalità finanziaria Quando si tratta di combattere la criminalità finanziaria, esistono sfide che vanno oltre lo scopo di fermare semplicemente i truffatori o altri cattivi attori.

Alcune delle tecnologie più recenti e avanzate che vengono lanciate spesso presentano problemi specifici che devono essere considerati durante le fasi di adozione per combattere con successo i truffatori senza ripercussioni normative. Nel rilevamento delle frodi, l’equità del modello e la distorsione dei dati possono verificarsi quando un sistema è più pesantemente ponderato o manca la rappresentazione di determinati gruppi o categorie di dati. In teoria, un modello predittivo potrebbe associare erroneamente cognomi di altre culture con account fraudolenti o ridurre erroneamente il rischio all’interno dei segmenti della popolazione per determinati tipi di attività finanziarie.

I sistemi di intelligenza artificiale distorti possono rappresentare una seria minaccia quando la reputazione può essere compromessa e si verifica quando i dati disponibili non sono rappresentativi della popolazione o del fenomeno di esplorazione. Questi dati non includono variabili che catturano adeguatamente il fenomeno che vogliamo prevedere. O in alternativa i dati potrebbero includere contenuti prodotti da esseri umani che possono contenere pregiudizi nei confronti di gruppi di persone, ereditati da esperienze culturali e personali, che portano a distorsioni nel prendere decisioni. Sebbene all’inizio i dati possano sembrare oggettivi, vengono comunque raccolti e analizzati dagli esseri umani e possono quindi essere distorti.

Sebbene non ci sia un proiettile d’argento quando si tratta di rimediare ai pericoli della discriminazione e dell’ingiustizia nei sistemi di intelligenza artificiale o di soluzioni permanenti al problema dell’equità e della mitigazione dei pregiudizi nell’architettura del modello e dell’utilizzo dell’apprendimento automatico , questi problemi devono essere considerati sia per la società che per ragioni di affari.

Fare la cosa giusta nell’IA
Affrontare i pregiudizi nei sistemi basati sull’intelligenza artificiale non è solo la cosa giusta, ma la cosa intelligente per le aziende e la posta in gioco per i leader aziendali è alta. I sistemi di intelligenza artificiale distorti possono portare le istituzioni finanziarie sulla strada sbagliata allocando opportunità, risorse, informazioni o qualità del servizio in modo ingiusto. Hanno anche il potenziale per violare le libertà civili, rappresentare un danno per la sicurezza delle persone o avere un impatto sul benessere di una persona se percepiti come denigratori o offensivi.

È importante che le aziende comprendano il potere e i rischi della distorsione dell’IA. Sebbene spesso sconosciuto all’istituzione, un sistema basato sull’IA distorto potrebbe utilizzare modelli o dati dannosi che espongono pregiudizi di razza o genere in una decisione di prestito. Informazioni come nomi e sesso potrebbero essere proxy per classificare e identificare i candidati in modi illegali. Anche se il pregiudizio non è intenzionale, mette comunque a rischio l’organizzazione non rispettando i requisiti normativi e potrebbe portare a prestiti o linee di credito negati ingiustamente a determinati gruppi di persone.

Attualmente, le organizzazioni non hanno i pezzi in atto per mitigare con successo i pregiudizi nei sistemi di intelligenza artificiale. Ma poiché l’IA viene sempre più utilizzata nelle aziende per prendere decisioni informate, è fondamentale che le organizzazioni si sforzino di ridurre i pregiudizi, non solo per motivi morali, ma per conformarsi ai requisiti normativi e creare entrate.

Cultura e attuazione “consapevoli dell’equità”.
Le soluzioni incentrate su una progettazione e un’implementazione consapevoli dell’equità avranno i risultati più vantaggiosi. I fornitori dovrebbero avere una cultura analitica che consideri l’acquisizione, la gestione e la gestione responsabili dei dati come componenti necessari dell’equità algoritmica, perché se i risultati di un progetto di IA sono generati da set di dati distorti, compromessi o distorti, le parti interessate non saranno adeguatamente protette da danno discriminatorio.

Questi sono gli elementi dell’equità dei dati che i team di data science devono tenere a mente:

Rappresentatività: a seconda del contesto, la sottorappresentazione o la sovrarappresentazione di gruppi svantaggiati o legalmente protetti nel campione di dati può portare a svantaggiare sistematicamente le parti vulnerabili nei risultati del modello formato. Per evitare questo tipo di bias di campionamento, l’esperienza del dominio sarà fondamentale per valutare l’adattamento tra i dati raccolti o acquisiti e la popolazione sottostante da modellare. I membri del team tecnico dovrebbero offrire mezzi di riparazione per correggere i difetti di rappresentazione nel campionamento.
Adatto allo scopo e sufficienza:  è importante per capire se i dati raccolti sono sufficienti per lo scopo previsto del progetto. Set di dati insufficienti potrebbero non riflettere equamente le qualità che dovrebbero essere soppesate per produrre un risultato giustificato che sia coerente con lo scopo desiderato del sistema di IA. Di conseguenza, i membri del team di progetto con competenze tecniche e politiche dovrebbero collaborare per determinare se la quantità di dati è sufficiente e adatta allo scopo.
Integrità della fonte e precisione della misurazione: un’efficace mitigazione dei bias inizia proprio all’inizio dei processi di estrazione e raccolta dei dati. Sia le fonti che gli strumenti di misurazione possono introdurre fattori discriminatori in un set di dati. Per garantire un non danno discriminatorio, il campione di dati deve avere un’integrità della fonte ottimale. Ciò implica garantire o confermare che i processi di raccolta dei dati implicassero fonti di misurazione adeguate, affidabili e imparziali e metodi di raccolta solidi.
Tempestività e attualità : se i set di dati includono dati obsoleti, le modifiche nella distribuzione dei dati sottostanti possono influire negativamente sulla generalizzabilità del modello addestrato. A condizione che queste derive distributive riflettano il cambiamento delle relazioni sociali o delle dinamiche di gruppo, questa perdita di accuratezza riguardo alle caratteristiche reali della popolazione sottostante può introdurre pregiudizi nel sistema di intelligenza artificiale. Nel prevenire esiti discriminatori, occorre esaminare attentamente la tempestività e l’attualità di tutti gli elementi del set di dati.
Rilevanza, adeguatezza e conoscenza del dominio : la comprensione e l’uso delle fonti e dei tipi di dati più appropriati sono fondamentali per costruire un sistema di intelligenza artificiale solido e imparziale. Una solida conoscenza di dominio della distribuzione della popolazione sottostante, e dell’obiettivo predittivo del progetto, è strumentale per selezionare input di misura ottimamente rilevanti che contribuiscono alla ragionevole risoluzione della soluzione definita. Gli esperti del settore dovrebbero collaborare strettamente con i team di scienza dei dati per aiutare a determinare le categorie e le fonti di misurazione ottimali e appropriate.
Mentre i sistemi basati sull’intelligenza artificiale aiutano nei processi di automazione del processo decisionale e offrono risparmi sui costi, le istituzioni finanziarie che considerano l’IA come una soluzione devono essere vigili per garantire che non vengano prese decisioni distorte. I leader della conformità dovrebbero essere al passo con il loro team di data science per confermare che le capacità dell’IA sono responsabili, efficaci e prive di pregiudizi. Avere una strategia che difenda l’IA responsabile è la cosa giusta da fare e può anche fornire un percorso verso la conformità con le future normative sull’IA.

Danny Butvini da unite.ai

Di ihal