Spiegabilità: la prossima frontiera dell’intelligenza artificiale nel settore assicurativo e bancario

“Qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalla magia”, ha affermato lo scrittore di fantascienza Arthur C. Clarke. In effetti, a volte la tecnologia avanzata, come i nuovi algoritmi di apprendimento automatico, assomiglia alla magia. Le applicazioni in evoluzione dell’apprendimento automatico, tra cui la classificazione delle immagini, il riconoscimento vocale e il suo utilizzo nel settore assicurativo e bancario, hanno proprietà apparentemente ultraterrene.

Molte aziende sono diffidenti nel cambiare i loro modelli analitici tradizionali, ed è giusto che sia così. La magia è pericolosa, soprattutto se non è ben compresa. Le reti neurali e gli algoritmi dell’insieme di alberi sono “scatole nere”, la loro struttura interna può essere estremamente complessa. Allo stesso tempo, diversi studi [1] hanno dimostrato come le reti neurali e gli algoritmi basati su alberi possono superare anche i modelli di rischio assicurativo tradizionali più attentamente sintonizzati costruiti da attuari esperti. Ciò è dovuto alla capacità dei nuovi algoritmi di identificare automaticamente la struttura nascosta nei dati. Il mistero e l’utilità delle reti neurali e degli algoritmi basati sugli alberi sono giustapposti. Esiste un compromesso intrinseco tra l’accuratezza di un modello analitico e il suo livello di “spiegabilità. “Come possiamo fidarci dei modelli se non riusciamo a capire come raggiungono le loro conclusioni? Dovremmo semplicemente cedere alla magia, sacrificare la nostra fiducia e il controllo su qualcosa che non possiamo comprendere appieno per la precisione?

I manager e gli analisti non sono gli unici a essere preoccupati per questo compromesso. Negli ultimi anni, le autorità di regolamentazione hanno iniziato a esplorare il lato oscuro della magia per aumentare la loro capacità di monitorare queste industrie. I settori bancario e assicurativo sono altamente regolamentati sotto molti aspetti e le attuali tendenze normative implicano uno sguardo più attento ai modelli utilizzati per fare previsioni. Il considerando 71 del Regolamento europeo sulla protezione dei dati (GDPR), ad esempio, afferma che i clienti dovrebbero avere il diritto di ottenere una spiegazione di una singola decisione automatizzata dopo che è stata presa. Fin dalla sua istituzione, questo elemento del regolamento è stato al centro di un dibattito accademico molto controverso.

L’urgente necessità di spiegare i modelli analitici “scatola nera” ha portato alla nascita di un nuovo campo di ricerca: l’Intelligenza Artificiale spiegabile. Gli esperti stanno sviluppando strumenti che ci consentono di sbirciare all’interno della scatola nera e svelare almeno parte della magia. Due tipi di strumenti che i ricercatori hanno creato includono strumenti “Spiegabilità globale”, che possono aiutarci a comprendere le caratteristiche chiave che guidano le previsioni del modello generale, e strumenti “Spiegabilità locale”, che hanno lo scopo di spiegare una previsione specifica.

Il grafico seguente è un esempio di spiegabilità locale. Si basa sulle idee dell’economista premio Nobel Lloyd Shapley, che ha sviluppato un metodo della teoria dei giochi per calcolare il contributo di diversi giocatori che cooperano nello stesso compito. In Explainable Artificial Intelligence, i “giocatori” sono le caratteristiche del modello, mentre il “compito” è la previsione del modello. I numeri che descrivono il contributo di ciascuna caratteristica sono chiamati “Valori Shapley”. I ricercatori hanno recentemente sviluppato metodi per la stima rapida dei valori di Shapley [2], permettendoci di distribuire equamente una previsione tra le diverse caratteristiche.

Utilizzo dei valori di Shapley per spiegare la domanda di rinnovo prevista di un cliente specifico

Il grafico, basato su dati simulati, mostra il risultato di un modello di domanda che prevede la probabilità di rinnovo della polizza di assicurazione auto. Questa è una spiegazione locale per un cliente specifico. Il modello della domanda si basa su un insieme complesso di alberi decisionali, ma il grafico presenta il contributo separato di ciascuna caratteristica alla previsione finale. In questo esempio, il modello prevede che l’individuo medio nei dati rinnoverà la polizza con una probabilità di 0,64. Tuttavia, per questo cliente specifico, la probabilità prevista è molto più alta, pari a 0,72. La trama ti permette di vedere la causa di questa differenza.

Sebbene non possiamo comprendere appieno la struttura interna di questo modello complesso, i valori di Shapley ci consentono di vedere quali sono le caratteristiche più importanti per una previsione specifica, svelando una parte della magia. La media dei singoli valori di Shapley sulla popolazione ci consente di vedere quali caratteristiche sono più importanti e di ottenere una spiegabilità globale del modello. Altri strumenti di spiegabilità popolari includono “Importanza della caratteristica di permutazione”, semplici modelli surrogati che vengono adattati localmente ed esempi controfattuali, per citarne alcuni [3].

I nuovi strumenti di spiegabilità sono il passo successivo necessario nell’evoluzione dell’apprendimento automatico. Possono consentire alle compagnie di assicurazione e alle banche di comprendere e fidarsi dei loro modelli di apprendimento automatico, conformarsi alle nuove normative e fornire ai propri clienti informazioni preziose. Ora possiamo superare parzialmente il compromesso tra accuratezza e spiegabilità e godere dei vantaggi dei nuovi modelli di machine learning con meno preoccupazioni sulla loro natura black-box.

Nel nostro mondo in rapida digitalizzazione, diventare completamente orientati all’analisi è il criterio di sopravvivenza di base per assicuratori e banche. Questa capacità è sempre stata importante, ma è diventata vitale con le condizioni di mercato volatili che il 2020 ci ha portato. Gli assicuratori e le banche hanno bisogno di analisi più intelligenti per modellare una nuova realtà complessa su cui basare le loro decisioni aziendali e servire i loro clienti più velocemente e meglio. Gli strumenti di spiegabilità possono consentire agli assicuratori e alle banche di raggiungere questo obiettivo. Con il tempo, arriveremo al punto in cui i modelli di machine learning non sono più considerati magici, ma uno strumento essenziale nell’arsenale di qualsiasi attività basata sui dati.

Di ihal