Zest AI makes the power of machine learning safe to use in credit underwriting.

Il software ZAML di Zest utilizza la tecnologia di apprendimento automatico per aiutare gli istituti di credito a prendere decisioni di credito più efficaci in modo sicuro, equo e trasparente. Fondata dal CIO di Google Douglas Merrill e sostenuta da Matrix Partners , Lightspeed , Upfront, Flybridge e Baidu, Zest collabora con società finanziarie di tutto il mondo per aiutare più persone ad accedere a un credito equo e trasparente.

È passato un anno da quando MMC Ventures ha pubblicato la scoperta accidentale che il 40% delle startup AI non aveva un uso materiale dell’IA nel proprio stack tecnologico . (Lo studio era in Europa ma, ehi, potrebbe essere ovunque.) In qualità di CTO di un’azienda di intelligenza artificiale, posso dirti che il ronzio può essere assordante.

Dimostrare che l’IA è reale (non solo viene fuori come reale) è un dilemma di cui ho discusso molto recentemente con un certo numero di clienti, partner e, soprattutto, investitori. Il profilo di come appare una vera azienda di intelligenza artificiale si sta ancora formando, e penso che ciò che Matt Bornstein e Martin Casado di Andreesseen Horowitz hanno scritto qui sulle aziende di intelligenza artificiale si rivelerà piuttosto preveggente.

Se sei un investitore, cliente o partner seduto di fronte a un fondatore o CEO di una società di intelligenza artificiale, ecco le domande che chiederei al loro team per verificare se sono legittimi. Dato che l’intelligenza artificiale ha molti gusti, per motivi di specificità, qui definiamo l’IA come apprendimento automatico.

Quali set di dati hai utilizzato per addestrare e valutare la tua intelligenza artificiale?
L’IA per scopi generici è ancora roba da fantascienza. La tecnologia odierna funziona meglio se applicata a una serie di problemi ristretti e specifici che la macchina può imparare a risolvere elaborando grandi set di dati di indicatori storici e risultati. Puoi dire quanto è brava la tua intelligenza artificiale a risolvere il problema fornendo alcuni dati per testarne l’accuratezza. I leader dell’azienda di intelligenza artificiale dovrebbero essere in grado di descrivere quale problema specifico sta risolvendo la loro intelligenza artificiale, quanto è accurata e in che modo questa precisione porta a un risultato aziendale.

Le aziende di intelligenza artificiale hanno bisogno di dati, più sono e meglio è. I dati possono avere molti gusti, ma è facile pensare in termini di righe e colonne. Le righe corrispondono a ciascuna osservazione di un risultato (ad esempio, il prestito è andato a male o è stato rimborsato?). Le colonne sono gli input; ciò che era noto prima che il risultato fosse osservato (ad esempio, reddito mensile al momento della domanda).

Una società di intelligenza artificiale dovrebbe essere in grado di raccontarti i suoi dati in modo dettagliato. L’azienda dovrebbe essere in grado di trasmettere ciò che l’IA sta cercando di prevedere, quali dati sono stati utilizzati per addestrare l’IA e come ha valutato l’efficacia dell’IA. Con che frequenza viene aggiornata l’IA? Quali piani hanno per incorporare nuovi dati per renderlo migliore? Se un’azienda ha buone risposte alle domande sui dati, è molto più probabile che sia legittima.

Cosa sta facendo un essere umano ora che dovrebbe fare la tua intelligenza artificiale?
Se il team dall’altra parte del tavolo prende sul serio l’IA, quello che stai chiedendo è stata una domanda scottante per loro sin dall’inizio. Vuoi sentirli parlare attraverso l’applicazione specifica della loro intelligenza artificiale. A seconda di come viene distribuito e di cosa sta facendo, l’IA può affrontare una qualsiasi delle migliaia di potenziali attività. Devi diffidare delle squadre a cui manca un focus specifico e di tutto ciò che sembra troppo bello per essere vero. Affermano che sarai in grado di sostituire vaste fasce di lavoratori? Stanno lanciando l’IA come una bacchetta magica in grado di risolvere qualsiasi problema?

Quando un’azienda ha davvero lavorato attraverso il processo di applicazione dell’intelligenza artificiale a un problema specifico, sa quanto siano accurati i risultati, quando tende ad avere successo e a fallire e dove ha dati e lacune di processo. L’azienda sa abbastanza per vedere che l’intelligenza artificiale è uno strumento che fa bene ciò che i computer e la matematica avanzata fanno, mentre libera gli esseri umani per fare ciò che sanno fare meglio.

L’azienda dovrebbe avere un quadro chiaro di ciò che le persone dovranno fare che l’IA non può fare e di come l’IA si adatterà a un processo aziendale che coinvolge le persone. La gestione del cambiamento necessaria per applicare l’intelligenza artificiale a un problema aziendale dovrebbe essere descritta in modo da sapere cosa devono fare i clienti per ottenere i vantaggi. Le persone che hanno litigato con l’intelligenza artificiale dovrebbero essere coerenti, premurose e umili. Avranno storie di ciò che è andato storto e di come lo hanno corretto. Diffida delle affermazioni secondo cui l’intelligenza artificiale non ha bisogno di essere monitorata attentamente.

L’intelligenza artificiale è stata utilizzata per ottenere risultati aziendali coerenti e risolvere un problema reale per più clienti?
Si è tentati di sottovalutare quanto sia difficile prendere un’idea che funziona alla grande in laboratorio e farla funzionare nel mondo reale. L’intelligenza artificiale di solito non funziona come previsto quando viene spostata in un ambiente di lavoro e farla funzionare davvero può essere un viaggio lungo e costoso. Secondo una recente stima di Gartner, solo il 20% dei progetti di intelligenza artificiale riesce a uscire dal laboratorio. Nel mio lavoro, sento storie di aziende giganti che hanno trascorso diversi anni cercando di mettere in produzione i loro progetti di intelligenza artificiale.

È importante imparare alcune specifiche su come funziona l’AI nella pratica. Potresti chiedere quanti clienti lo hanno utilizzato, da quanto tempo è stato in produzione e quali risultati di business ha generato. Quanto tempo ci vuole per renderlo operativo in media? Come si confronta l’IA con le misurazioni storiche dello stesso risultato o attività aziendale? Che ne dici di metodi alternativi e meno complessi come regole, alberi decisionali o modelli lineari?

C’è molta intelligenza artificiale là fuori che sembra interessante. La parte difficile è trasformare un metodo promettente che funziona su una manciata di esempi, o un set di dati specifico e limitato, in qualcosa che funzioni nel mondo reale senza costanti e costose modifiche e manutenzione. La scienza dei dati è difficile e la creazione di un’IA che produca risultati aziendali coerenti richiede investimenti in persone altamente qualificate, ottimi strumenti e disciplina dei processi, incluso un monitoraggio completo. Ricorda solo che ciò che sembra buono in una demo potrebbe non risultare allo stesso modo quando viene applicato a un problema reale: fai domande per ottenere prove che l’IA funziona davvero.

Quanto tempo è stato dedicato alla costruzione dell’IA, quanti test sul campo sono stati effettuati e chi l’ha esaminata e ha espresso un’opinione in merito?
Ovviamente, vuoi sapere quanti dottorati di ricerca ha un’azienda nel personale e quanti soldi sono stati spesi per sviluppare l’IA. Queste sono buone metriche, anche se non possono raccontare l’intera storia. L’obiettivo è vedere che l’azienda ha dedicato tempo e cura adeguati al gioco attraverso vari problemi in laboratorio e quindi test e perfezionamenti sul campo. Idealmente, sentirai parlare di anni di sviluppo insieme alla distribuzione con diversi tipi di clienti, così puoi essere certo che la loro intelligenza artificiale è adattabile e comprovata.

La regolamentazione aumenterà solo per l’IA. Ciò richiederà che i modelli siano sottoposti a un attento processo di convalida e governance, come vediamo oggi nei servizi finanziari . È necessario eseguire una convalida completa dei modelli di IA per garantire che i modelli siano applicati in modo responsabile. Nella ricerca medica, la Food & Drug Administration ha già approvato alcuni processi abilitati dall’intelligenza artificiale, mentre nelle aree finanziarie, i regolatori hanno approvato i modelli di intelligenza artificiale negli audit. L’intelligenza artificiale ha superato l’esame per la distribuzione ed è pronta per un’ampia adozione, anche nei settori regolamentati, quando viene seguito un processo di convalida adeguato. Quali pratiche di convalida ha l’azienda?

Quanto è facile capire le decisioni o le raccomandazioni della tua intelligenza artificiale?
I primi risultati dell’intelligenza artificiale erano così promettenti che il settore è andato avanti senza creare strumenti di trasparenza per valutare decisioni e processi. Non importa molto se la tua intelligenza artificiale suggerisce i post su cui fare clic o scegli un colore per il lucidalabbra. Per prendere decisioni regolamentate a livello federale, come il prestito o la guida, il governo ha bisogno di una documentazione dettagliata per ogni fase del processo di creazione del modello di IA e affinché le aziende giustifichino ogni decisione basata sull’intelligenza artificiale. In molte situazioni, le aziende saranno ritenute responsabili per decisioni distorte o scarsi risultati indipendentemente dal fatto che un regolatore abbia controllato o meno il processo di costruzione. Chiedi all’azienda di intelligenza artificiale di mostrarti come spiegano le decisioni basate sull’intelligenza artificiale ai clienti e alle autorità di regolamentazione.

Che tipo di pregiudizio ha l’IA e come viene mitigato?
Le buone aziende di intelligenza artificiale dovrebbero avere un’idea chiara di come rendere equa la loro intelligenza artificiale, perché il bias è insito in ogni set di dati. Sappiamo che i set di dati che utilizziamo per addestrare i nostri modelli contengono pregiudizi di genere e razziali e che molti set di dati non includono segmenti demografici significativi che sono stati storicamente sottoserviti. La creazione di un’IA più inclusiva ci ha portato a cercare più dati. Anche le persone della squadra contano. Un buon team di data scientist conosce i suoi punti ciechi e apprezza la diversità. Circa il 40% dei team tecnici di Zest sono donne e altri segmenti sono sottorappresentati nell’informatica. La diversità porta a risultati migliori.

Gestire i pregiudizi non intenzionali, in cui le intenzioni benigne finiscono con risultati ingiusti, torna alla trasparenza. Poiché l’IA può trovare correlazioni invisibili tra informazioni apparentemente diverse, gli input possono sembrare imparziali ma i risultati possono essere distorti. L’azienda di intelligenza artificiale etica avrà una strategia completa e attuabile per misurare e mitigare i pregiudizi in modo che l’IA venga utilizzata in modo equo e inclusivo. Chiedi di vederlo.

Tutti vogliono avere un’attività di successo e fare soldi. Utilizzare l’IA per promuovere i tuoi obiettivi non dovrebbe essere difficile, devi solo porre le domande giuste per assicurarti che il tuo partner nell’IA sia etico e dimostri di avere la disciplina per mettere in produzione la sua IA in modo coerente. Le vere aziende di intelligenza artificiale possono raccontarti tutto di questo viaggio.

Jay Budzik, CTO di Zest AI

Zest AI makes the power of machine learning safe to use in credit underwriting.

Di ihal