Wells Fargo CIO: l’intelligenza artificiale e l’apprendimento automatico faranno avanzare il settore dei servizi finanziari 

È semplice: nei servizi finanziari , i dati dei clienti offrono i servizi e i consigli più rilevanti. 

Ma, spesso, le persone utilizzano diverse istituzioni finanziarie in base alle loro esigenze: il loro mutuo con uno; la loro carta di credito con un’altra; i loro investimenti , risparmi e conti correnti con un altro ancora. 

 
E nel settore finanziario, più di altri, le istituzioni sono notoriamente isolate. In gran parte perché il settore è così competitivo e altamente regolamentato, non c’è stato molto incentivo per le istituzioni a condividere dati, collaborare o cooperare in un ecosistema. 

I dati dei clienti sono deterministici (vale a dire, si basano su fonti in prima persona), quindi con i clienti che “vivono in più parti”, gli istituti finanziari non sono in grado di formare un quadro preciso delle loro esigenze, ha affermato Chintan Mehta, CIO e responsabile del digital tecnologia e innovazione a Wells Fargo. 

 

“I dati frammentati sono in realtà dannosi”, ha affermato. “Come lo risolviamo come settore nel suo insieme?”

Pur proponendo modi per aiutare a risolvere questa sfida relativa ai dati dei clienti, Mehta e il suo team incorporano costantemente anche iniziative di intelligenza artificiale (AI) e machine learning (ML) per accelerare le operazioni, ottimizzare i servizi e migliorare le esperienze dei clienti.

“Non si tratta di scienza missilistica qui, ma la parte difficile è ottenere una buona immagine delle esigenze di un cliente”, ha affermato Mehta. “Come otteniamo effettivamente un profilo cliente completo?”

Una serie di iniziative di intelligenza artificiale per i servizi finanziari
Mentre il gigante dei servizi finanziari multinazionale di 170 anni compete in un’industria stimata di 22,5 trilioni di dollari che rappresenta circa un quarto dell’economia mondiale, il team di Mehta porta avanti gli sforzi in merito alla gestione intelligente dei contenuti, alla robotica e all’automazione intelligente, alla tecnologia dei registri distribuiti, all’IA avanzata e informatica. 

Mehta guida anche le partnership accademiche e di ricerca del settore di Wells Fargo, tra cui con lo Stanford Institute for Human-Centered Artificial Intelligence (HAI), lo Stanford Platform Lab e il MIT-IBM Watson Artificial Intelligence Lab. 

 
Nel suo lavoro, il team di Mehta si affida a una gamma di strumenti di intelligenza artificiale e ML: modelli statistici tradizionali, reti di deep learning e test di regressione logistica (utilizzati per la classificazione e l’analisi predittiva). Applicano una varietà di piattaforme cloud native tra cui Google e Azure, nonché sistemi interni (basati sulla località dei dati). 

Una tecnica che applicano, ha detto Mehta, è la memoria a lungo termine. Questa rete neurale ricorrente utilizza connessioni di feedback in grado di elaborare singoli punti dati e intere sequenze di dati. Il suo team applica la memoria a lungo termine nell’elaborazione del linguaggio naturale (PNL) e nella comprensione del linguaggio parlato per estrarre l’intento dal fraseggio. Un esempio è nella gestione dei reclami, l’estrazione di “riassunti mirati specifici” dai reclami per determinare le migliori linee d’azione e procedere rapidamente su di esse, ha spiegato Mehta. Le tecniche NLP vengono applicate anche alle richieste di moduli di siti Web che hanno più contesto rispetto a quelli nei suggerimenti del menu a discesa. 

Le tradizionali tecniche di deep learning come le reti neurali feedforward, in cui le informazioni avanzano solo in un ciclo, vengono applicate per il riconoscimento di immagini e caratteri di base. Nel frattempo, per analizzare i documenti vengono utilizzate tecniche di deep learning come le reti neurali convoluzionali, progettate specificamente per elaborare i dati dei pixel, ha affermato Mehta. 

Quest’ultimo aiuta a provare alcuni aspetti dei documenti scansionati inviati e ad analizzare le immagini in tali documenti per garantire che siano completi e contengano attributi, contenuti e commenti previsti. (Ad esempio, in un tipo specifico di documento come un estratto conto corrente, sono previsti sei attributi in base agli input forniti, ma solo quattro vengono rilevati, contrassegnando il documento per l’attenzione.) Tutto sommato, questo aiuta a semplificare e accelerare vari processi , ha detto Mehta. 

 
Per le prossime iniziative, il team sta anche sfruttando il servizio di elaborazione serverless AWS Lamba e applicando modelli di rete neurale di trasformatori, che vengono utilizzati per elaborare dati sequenziali inclusi testo in linguaggio naturale, sequenze genomiche, segnali sonori e dati di serie temporali. Mehta prevede inoltre di incorporare sempre più pipeline di machine learning casuali, una tecnica di apprendimento supervisionato che utilizza più alberi decisionali per la classificazione, la regressione e altre attività. 

“Questa è un’area che trasmetterà la maggior parte delle istituzioni finanziarie”, ha affermato Mehta. 

Ottimizzare, accelerare, in mezzo alla regolamentazione
Una sfida significativa che Mehta e il suo team devono affrontare è accelerare l’implementazione di AI e ML in un settore altamente regolamentato. 

“Se ti trovi in ​​un settore non regolamentato, il tempo necessario per disporre di un set di dati di funzionalità e quindi creare un modello su di esso e implementarlo in produzione è piuttosto breve, relativamente parlando”, ha affermato Mehta. 

Mentre in un settore regolamentato, ogni fase richiede la valutazione dei rischi esterni e la convalida interna.

“Quando possiamo, ci orientiamo maggiormente verso i modelli statistici”, ha affermato Mehta, “e quando creiamo grandi soluzioni basate su reti neurali, ciò passa attraverso una quantità significativa di controllo”.

 
Ha affermato che tre gruppi indipendenti esaminano i modelli e li sfidano: un gruppo di rischio indipendente in prima linea, un gruppo di governance del rischio modello e un gruppo di audit. Questi gruppi creano modelli separati per creare fonti di dati indipendenti; applicare processi post hoc per analizzare i risultati dei dati sperimentali; convalidare che i set di dati e i modelli si trovino “nell’intervallo corretto”; e applicare le tecniche per sfidarli. 

In media, il team di Mehta distribuisce da 50 a 60 modelli all’anno, osservando sempre il quadro campione-sfidante. Ciò comporta il monitoraggio e il confronto continuo di più strategie concorrenti in un ambiente di produzione e la valutazione delle loro prestazioni nel tempo. La tecnica aiuta a determinare quale modello produce i migliori risultati (il “campione”) e l’opzione runner-up (lo “sfidante”).

L’azienda ha sempre qualcosa in produzione, ha detto Mehta, ma l’obiettivo è ridurre continuamente i tempi di produzione. Il suo dipartimento ha già fatto passi da gigante in questo senso, avendo ridotto il processo di modellazione dell’IA (dalla scoperta al mercato) da oltre 50 settimane a 20 settimane.

È una domanda su “Come puoi ottimizzare l’intero flusso end-to-end e automatizzare il più possibile?” ha detto Mehta. “Non si tratta di un modello di intelligenza artificiale specifico. In generale si dice: ‘Quanta memoria muscolare abbiamo per portare queste cose sul mercato e aggiungere valore?'”

Ha aggiunto che “il valore del ML in particolare riguarderà casi d’uso a cui non abbiamo ancora pensato”. 

Incoraggiare il dialogo con il settore dei servizi finanziari 
Nel complesso, l’industria trarrà grandi benefici anche dal colmare l’espansione digitale tra attori grandi e piccoli. La collaborazione, ha affermato Mehta, può aiutare a promuovere “intuizioni intelligenti” e portare il settore al livello successivo di interazione con i clienti. 

 
Ciò può essere ottenuto, ha affermato, attraverso capacità come il calcolo multipartitico sicuro e piattaforme a prova di conoscenza zero, che oggi non esistono nel settore, ha affermato Mehta. 

L’elaborazione sicura con più parti è un processo crittografico che distribuisce i calcoli tra più parti, ma mantiene gli input privati ​​e non consente alle singole parti di vedere i dati di altre parti. Allo stesso modo, lo zero knowledge proofing crittografico è un metodo mediante il quale una parte può provare a un’altra che una determinata affermazione è effettivamente vera, ma evita di rivelare informazioni aggiuntive (potenzialmente sensibili). 

Lo sviluppo di tali capacità consentirà alle istituzioni di collaborare e condividere le informazioni in sicurezza senza problemi di privacy o perdita di dati, mentre allo stesso tempo competere in un ecosistema in modo appropriato, ha affermato Mehta. 

Entro cinque anni circa, ha previsto, l’industria avrà un’ipotesi più solida sulla collaborazione e sull’uso di strumenti così avanzati.

Allo stesso modo, Wells Fargo mantiene un dialogo continuo con le autorità di regolamentazione. Come segno positivo, Mehta ha recentemente ricevuto richieste esterne da autorità di regolamentazione in merito a processi e tecniche di AI/ML, cosa che raramente, se non mai, si è verificata in passato. Questo potrebbe essere fondamentale, poiché le istituzioni sono “piuttosto eterogenee” nell’uso degli strumenti per la costruzione di modelli e il processo “potrebbe essere più industrializzato”, ha sottolineato Mehta.

“Penso che ci siano molti più incentivi, interesse e appetito da parte delle autorità di regolamentazione per capirlo un po’ meglio in modo che possano riflettere su questo e impegnarsi di più”, ha detto Mehta. “Questo si sta evolvendo rapidamente e devono evolversi insieme ad esso”.

STILLWATER, MN/USA – MAY 31, 2020: Wells Fargo bank exterior sign and trademark logo.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi