Il cloud computing ci ha introdotto in un’era in cui la potenza di elaborazione del computer è praticamente illimitata. Questa disponibilità di potenza di calcolo illimitata ha portato a progressi nell’informatica come l’IA, che sta guidando la prossima rivoluzione aziendale. L’intelligenza artificiale promette un modo di pensare umano alla velocità di un computer. La prossima rivoluzione riguarda l’IA che libera le persone da attività ripetitive di basso valore in modo che possano concentrarsi su attività strategiche di alto valore.
Gran parte di ciò che vediamo oggi nell’intelligenza artificiale sta lavorando per riprodurre il modo in cui funziona l’intelligenza naturale, con la speranza di arrivare a decisioni a livello umano più veloci e più avvedute. Ad esempio, nel mondo della contabilità, un’applicazione dell’intelligenza artificiale sarebbe quella di identificare la varianza della spesa (ovvero le transazioni che si discostano dalle normali pratiche dell’azienda o del settore).

Gli esseri umani possono identificare le tendenze di spesa e la varianza in un gruppo di poche centinaia di transazioni, la maggior parte delle quali vengono identificate come falsi positivi dopo ulteriori indagini. Nello stesso o meno tempo, l’IA può identificare le tendenze di spesa e la varianza tra miliardi di transazioni ed eseguire ulteriori indagini per eliminare i falsi flag in millisecondi. La preoccupazione in questo scenario è che l ‘”ulteriore indagine” è una scatola nera nebulosa di cui ci dovremo fidare. Questo elemento di fiducia ci porta all’IA spiegabile.

L’intelligenza artificiale spiegabile ha l’ulteriore requisito di poter spiegare a un essere umano come è arrivato a una conclusione. Abbiamo già visto questo come un mandato nel software diagnostico medico, in cui il controllo di praticamente tutti i parametri decisionali deve risiedere dal medico. Ciò consente al medico non solo di controllare il processo, ma alla fine di essere in grado di spiegare e fidarsi del risultato. Nel nostro esempio di contabilità sopra, l’IA dovrebbe spiegare, in termini umani, come ha selezionato le transazioni di varianza e come ha scelto quali eliminare da false flag. E avrebbe bisogno di restituire questa spiegazione con i risultati.

Mettere questa richiesta sull’intelligenza artificiale non è diverso da quello che abbiamo sempre posto ai decisori esperti. Quando portiamo le nostre macchine da un meccanico, ci aspettiamo una spiegazione della diagnosi e dei servizi da eseguire. Facciamo lo stesso con i nostri dentisti, avvocati e agenti di cambio. Parte di ciò che rende un professionista dei servizi affidabile nel suo lavoro è la capacità di spiegare il processo decisionale. Stiamo assumendo questa responsabilità sull’intelligenza artificiale. Sostanzialmente stiamo dicendo all’intelligenza artificiale: “Prima di entrare nella tua prognosi della situazione, dimmi come ci sei arrivato”.

Rispondere a questa domanda comporterà un onere per i tecnologi che hanno bisogno di trovare il punto di delimitazione tra ciò che l’IA può fare e spiegare prontamente e ciò che deve essere lasciato al pensiero strategico e alla creatività delle persone. In contabilità e finanza, questo probabilmente significherà qualcosa di semplice come la divisione di attività di big data, che hanno più senso per le prime applicazioni di intelligenza artificiale, da preoccupazioni qualitative, che spesso hanno complessità e sfumature. Può anche significare qualcosa di così complesso come la codifica di GAAP da usare per l’IA e quindi fare riferimento nelle spiegazioni. GAAP è un insieme di principi interpretati dall’uomo, quindi la codifica può richiedere anche l’adattamento delle leve da adeguare secondo il giudizio dei professionisti della contabilità e della finanza.

Un’area di investimento per la mia azienda è la valutazione continua dell’attività commerciale per identificare i cambiamenti nelle tendenze delle prestazioni. Un cambiamento di tendenza potrebbe segnalare un’opportunità o un rischio imminente. Questo è un eccellente esempio di AI spiegabile. Con l’IA spiegabile, il prodotto individuerà il cambiamento ma poi elencherà e classificherà i fattori alla base del cambiamento. Se, ad esempio, l’IA rileva un rischio di rinnovo di un contratto di grandi dimensioni, un leader finanziario può adattare i piani spostando più risorse per affrontare il contratto specifico.

Tra le aziende che spingono e sviluppano un’intelligenza artificiale spiegabile c’è Chatterbox Labs, una società tecnologica con uffici a Londra e New York. Stanno applicando diverse metodologie per sviluppare la prossima generazione di intelligenza artificiale a varie funzioni aziendali basate sui dati, con particolare attenzione all’IA spiegabile. Vedono le principali applicazioni di intelligenza artificiale spiegabile in aree sia complesse che altamente regolamentate, vale a dire sanità, servizi finanziari e prodotti farmaceutici.

Quando chiediamo ai professionisti della finanza e della contabilità di valutare la codificazione dei principi complessi e il controllo delle leve che guidano l’IA, dovremo anche alzare il livello della loro comprensione dei dati e di come il loro contributo potrebbe influenzare i risultati. Ciò non significa che trasformiamo ogni esperto di contabilità in uno scienziato dei dati, ma dovremo impegnare educatori aziendali e istituzioni educative nella preparazione di professionisti per questo nuovo paradigma.

Anche se potremmo non separare mai l’esperto finanziario dai suoi fogli di calcolo, avremo bisogno di loro per espandere la loro visione di come i dati interagiscono e ciò che l’IA spiegabile sta realmente dicendo loro. Potrebbe trattarsi di un nuovo ruolo o competenza nel mondo della contabilità e della finanza, che implica la costruzione di modelli di traduzione da processi di intelligenza artificiale codificati a spiegazioni leggibili dall’uomo.

Una delle chiavi generali del successo dell’IA è il livello di fiducia tra gli umani e i sistemi di intelligenza artificiale che completano l’attività umana. Le soluzioni di intelligenza artificiale devono non solo raggiungere elevati livelli di precisione, ma devono anche stabilire aspettative ragionevoli. Dal lato umano, aiuta ad avere una comprensione di base di come funziona la tecnologia. Credo che i commercialisti di maggior successo del futuro avranno una presa salda su statistiche e algoritmi informatici.

Con l’avanzare dell’intelligenza artificiale e dell’apprendimento automatico, la richiesta di intelligenza artificiale spiegabile e la creazione di verifiche di tali spiegazioni diventerà un controllo contro l’intelligenza artificiale o l’intelligenza artificiale dannose che sono semplicemente andate fuori strada. L’intelligenza artificiale spiegabile diventa quindi un meccanismo di sicurezza per le parti interessate per garantire che l’IA stia facendo ciò che intende fare. Il futuro dell’IA sembra illimitato e vantaggioso finché ci avviciniamo con lo stesso tipo di pensiero razionale e responsabilità personale che usiamo quando interagiamo con gli esperti umani su cui facciamo affidamento per aiutarci a prendere decisioni nella nostra vita.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi