Un recente sondaggio tra i leader aziendali globali mostra che un’IA affidabile è una priorità importante, ma molti non stanno adottando misure sufficienti per raggiungerla, ma a quale costo?

In effetti, il  sondaggio IBM ha  rivelato che uno sbalorditivo 85% degli intervistati concorda sul fatto che i consumatori sono più propensi a scegliere un’azienda trasparente su come i suoi modelli di intelligenza artificiale sono costruiti, gestiti e utilizzati.

Tuttavia, la maggioranza ha ammesso di non aver adottato misure chiave per garantire che la propria intelligenza artificiale sia affidabile e responsabile, come la riduzione dei pregiudizi (74%), il monitoraggio delle variazioni delle prestazioni e la deriva del modello (68%) e assicurarsi di poter spiegare l’intelligenza artificiale decisioni (61%). Ciò è preoccupante, soprattutto se si considera che l’utilizzo dell’IA continua a crescere, con il 35% che afferma di utilizzare l’IA nella propria attività, rispetto al 31% di un anno fa.

Di recente ho partecipato al  Corporate Innovation Summit , solo su invito,  a Toronto, dove i partecipanti hanno scambiato idee innovative e presentato tecnologie pronte a plasmare il futuro. Ho avuto il privilegio di partecipare a tre tavole rotonde all’interno dei segmenti dei servizi finanziari, assicurativi e della vendita al dettaglio con l’emergere di tre aree chiave: la necessità di maggiore trasparenza per promuovere la fiducia nell’IA, la democratizzazione dell’IA attraverso il no-code/low-code e lo sviluppo per fornire un time-to-value più rapido e una mitigazione del rischio attraverso le migliori pratiche di governance normativa dell’IA.

Aumentare la fiducia nelle tecnologie AI. Il COVID-19 ha amplificato e accelerato la tendenza a sposare chatbot basati su intelligenza artificiale, assistenti finanziari virtuali e on-boarding dei clienti senza contatto. Questa tendenza continuerà, come confermato  dalla ricerca di Cap Gemini  , che mostra che il 78% dei consumatori intervistati prevede di aumentare l’uso delle tecnologie AI, inclusa la gestione dell’identità digitale, nelle loro interazioni con le organizzazioni di servizi finanziari.

Nonostante i vantaggi intrinseci, sorgono una serie di sfide. La principale tra queste è  la continua sfiducia dei consumatori nei confronti delle tecnologie di intelligenza artificiale  e il modo in cui la loro natura onnipresente influisce sui loro diritti alla privacy e alla sicurezza. Il 30% dei consumatori ha affermato che sarebbe più a suo agio nel condividere le proprie informazioni biometriche se i propri fornitori di servizi finanziari fornissero maggiore trasparenza nello spiegare come le loro informazioni vengono raccolte, gestite e protette.

I CIO devono adottare  principi di IA affidabili  e istituire misure rigorose che salvaguardino i diritti alla privacy e alla sicurezza. Possono raggiungere questo obiettivo attraverso  la crittografia , la minimizzazione dei dati e un’autenticazione più sicura, anche considerando gli  standard emergenti di identità digitale decentralizzata.  Di conseguenza, i tuoi sforzi di automazione intelligente e le offerte self-service vedranno una maggiore adozione e richiederanno meno interventi umani.

Rimuovere gli ostacoli alla democratizzazione dell’IA.  C’è un crescente spostamento verso lo sviluppo di applicazioni AI no-code/low-code, che  la ricerca  prevede di raggiungere $ 45,5 miliardi entro il 2025. Il driver principale è il  time-to-value più rapido  con miglioramenti della produttività  dello sviluppo delle applicazioni di 10 volte .

Ad esempio, il 56% delle organizzazioni di servizi finanziari intervistate considera  la raccolta dei dati  dai mutuatari come una delle fasi più impegnative e inefficienti all’interno del processo di richiesta di prestito, con conseguenti alti tassi di abbandono. Mentre è dimostrato che le tecnologie di identificazione biometrica e di raccolta dei dati basate sull’intelligenza artificiale migliorano l’efficienza nel processo di richiesta di prestito, possono anche  creare rischi di conformità,  in particolare la privacy dei dati, la riservatezza e il bias algoritmico dell’intelligenza artificiale.

Per mitigare e rimediare a tali rischi, le applicazioni low code/no code devono includere test completi per garantire che funzionino in conformità con gli obiettivi di progettazione iniziali, rimuovano potenziali pregiudizi nel set di dati di addestramento che possono includere bias di campionamento, bias di etichettatura e siano protetti da contraddittorio Attacchi di intelligenza artificiale che possono avere un impatto negativo sui risultati algoritmici dell’IA. La considerazione dei  principi responsabili della scienza dei dati  di equità, accuratezza, riservatezza e sicurezza è fondamentale.

Sviluppare una governance e un quadro normativo per l’IA.  La governance dell’IA non è più un’iniziativa piacevole da avere ma un imperativo. Secondo il tracker dell’OCSE sulle politiche nazionali di intelligenza artificiale, ci sono oltre  700 iniziative di regolamentazione dell’IA in fase di sviluppo in oltre 60 paesi . Esistono tuttavia codici di condotta volontari e principi etici di intelligenza artificiale sviluppati da organizzazioni di standard internazionali come l’  Institute of Electrical and Electronic Engineers (“IEEE”)  e il  National Institute of Standards and Technology (NIST ).

Le preoccupazioni delle organizzazioni riguardano l’ipotesi che le normative sull’IA imporranno  loro obblighi  di conformità più rigorosi, supportati da onerosi meccanismi di applicazione, comprese sanzioni per la non conformità. Tuttavia, la regolamentazione dell’IA è inevitabile.

L’Europa e il Nord America stanno assumendo posizioni proattive che richiederanno ai CIO di collaborare con le loro controparti tecnologiche e aziendali per formare politiche efficaci. Ad esempio, la proposta della Commissione europea di una  legge sull’intelligenza artificiale  propone di istituire obblighi basati sul rischio per i fornitori di intelligenza artificiale per proteggere i diritti dei consumatori, promuovendo allo stesso tempo l’innovazione e le opportunità economiche associate alle tecnologie di intelligenza artificiale.

Inoltre, nel giugno 2022, il governo federale canadese ha pubblicato il suo tanto atteso  Digital Charter Implementation Act  che protegge dagli impatti negativi dei sistemi di intelligenza artificiale ad alto rischio. Anche gli Stati Uniti stanno procedendo con iniziative di regolamentazione dell’IA, anche se su base settoriale.  La Federal Trade Commission (FTC) , il  Consumer Financial Protection Bureau (CFPB ) e  il Federal Reserve Board  stanno tutti flettendo i loro muscoli normativi attraverso i loro meccanismi di applicazione per proteggere i consumatori dagli impatti negativi derivanti dalle maggiori applicazioni dell’IA che possono portare a risultati discriminatori , anche se non intenzionale. Un quadro normativo per l’IA è indispensabile per qualsiasi azienda innovativa.

Per ottenere un’IA affidabile sono necessarie informazioni dettagliate basate sui dati

L’implementazione di un’IA affidabile non può essere raggiunta senza un approccio basato sui dati per determinare dove le applicazioni delle tecnologie di intelligenza artificiale possono avere il maggiore impatto prima di procedere con l’implementazione. È per migliorare il coinvolgimento dei clienti, per realizzare efficienze operative o per mitigare i rischi di conformità?

Ciascuno di questi driver di business richiede una comprensione di come vengono eseguiti i processi, come vengono gestite le escalation e le eccezioni e identificare le variazioni nei blocchi di esecuzione dei processi e le loro cause principali. Sulla base di tale analisi basata sui dati, le organizzazioni possono prendere decisioni aziendali informate in merito all’impatto e ai risultati associati all’implementazione di soluzioni basate sull’intelligenza artificiale per ridurre l’attrito con l’onboarding dei clienti e migliorare l’efficienza operativa. Una volta che le organizzazioni hanno il vantaggio di informazioni guidate dai dati, possono automatizzare processi ad alta intensità di manodopera come il rispetto dei mandati di conformità dell’IA, il controllo della conformità, KYC e AML nei servizi finanziari.

Il punto principale è che una parte integrante dell’automazione dei processi abilitata dall’IA è l’implementazione di best practice affidabili per l’IA. L’uso etico dell’IA non dovrebbe essere considerato solo come un obbligo legale e morale, ma come un imperativo aziendale. È logico per gli affari essere trasparenti nell’applicazione dell’IA. Promuove la fiducia e genera fedeltà alla marca.

Andrea Peri da unite.ai

Di ihal