Una delle storie più strane emerse durante la pandemia è stata quella dopo il fallimento dei risultati degli esami GCSE e A Level del Regno Unito quando è stato riferito che il primo ministro Boris Johnson ha detto agli studenti del Leicestershire che avevano ricevuto voti inferiori a quelli previsti a causa di un “algoritmo mutante” . Mentre molti genitori e insegnanti erano inorriditi dalla risposta disinvolta del premier al fallimento del regolatore degli esami Ofqual dopo che il Covid-19 aveva causato la chiusura delle scuole e l’annullamento degli esami, mi chiedevo quale fosse la percezione dell’algoritmo – ‘mutante’ o meno – ora.
Parlando ai professionisti della tecnologia nel corso degli anni, il messaggio è stato chiaro: fidarsi più dell’algoritmo che dell’essere umano. Tuttavia, le cose sono cambiate alla luce delle preoccupazioni ora ampiamente riportate sul crescente utilizzo di algoritmi nell’assistenza sanitaria e nei sistemi di giustizia penale? Il concetto di “trasparenza intelligente” è reale? Nel suo articolo per la Harvard Data Science Review , David Spiegelhalter esplora quanto sia difficile oggi non rimanere ipnotizzati dalla mistica della tecnologia, specialmente quando “i media (e i politici) sono pieni di storie credulone sull’apprendimento automatico e sull’intelligenza artificiale”.
Successivamente, Spiegelhalter sottolinea che in questa “epoca di disinformazione e voci forti e in competizione, tutti vogliamo essere affidabili”. Facendo riferimento a Onora O’Neill, conclude che “le organizzazioni non dovrebbero cercare di fidarsi; piuttosto dovrebbero mirare a dimostrare affidabilità, il che richiede onestà, competenza e affidabilità”. Questo sentimento è cruciale quando si cerca di comprendere la validità di algoritmi, modelli di AI e ML.
Sullo sfondo della pandemia, come società abbiamo compreso collettivamente cosa è importante quando si naviga attraverso quella che è diventata la nuova normalità. Per quanto riguarda l’intelligenza artificiale quando si considera il settore dei servizi finanziari, è diventato ancora più importante garantire che le organizzazioni detengano e abbiano accesso a dati di alta qualità in modo che vengano fornite offerte che soddisfano le esigenze dei clienti. Non è più bello averlo.
Oltre a ciò, nello stesso modo in cui è fondamentale per il successo del business, dati accurati senza pregiudizi possono essere ciò che determina se a qualcuno viene concesso un prestito, e quindi, è di fondamentale importanza oggi quando si garantisce che le persone siano finanziariamente stabili e siano in grado di sostenersi. Un recente rapporto di Mastercard “Doing AI Right: No Trust? No Business ‘afferma che “dati di cattiva qualità creano una cattiva intelligenza artificiale che può prendere decisioni sbagliate e può danneggiare gli individui”.
Ajay Bhalla, Presidente di Cyber and Intelligence Solutions, Mastercard aggiunge: “C’è un’enorme opportunità con l’IA. Quindi, è fondamentale che l’IA che stiamo creando e l’IA che stiamo usando per gestire le nostre tecnologie siano affidabili e affidabili, il che richiede cose come dati di buona qualità. In caso contrario, corriamo il rischio di creare una società senza fiducia “. Aggiunge: “Senza fiducia, non si possono fare affari. Più adesso che forse in qualsiasi altro momento della storia”. Mastercard ora dispone di laboratori di ricerca e sviluppo e risorse di intelligenza artificiale in cinque centri in tutto il mondo e cerca di creare fiducia nell’intelligenza artificiale testando, adattando e migliorando costantemente gli algoritmi per aiutarci a risolvere le sfide del mondo reale.
Solo il 30% delle persone si sente a proprio agio con le aziende che utilizzano l’IA per comunicare con loro e il 53% crede che l’IA prenderà sempre decisioni in base ai pregiudizi della persona che ha creato le istruzioni. Il 12% afferma di credere che l’intelligenza artificiale possa distinguere tra il bene e il male, nonostante faccia affidamento su piattaforme basate sull’intelligenza artificiale come Google Maps, Twitter e Netflix. Questa disconnessione può essere risolta con la trasparenza, che a sua volta garantirà la fiducia.
Inoltre, secondo gli ultimi dati di PwC, i tassi di frode globali hanno raggiunto il massimo di quasi 20 anni, con il 47% delle aziende che ha riferito di aver subito frodi negli ultimi due anni. Mastercard rivela che proteggere i clienti e le aziende da un’esplosione di attacchi informatici e frodi è stata una sfida, soprattutto perché un attacco su tre ora emula il comportamento umano. Per contrastarli è necessaria un’intelligenza artificiale sofisticata per individuare la persona dal bot. Oltre a ciò, gli attacchi alla creazione di account, in cui i malintenzionati creano account falsi per un successivo utilizzo fraudolento, sono aumentati del 500% durante la pandemia, rispetto allo stesso periodo del 2019.
L’intelligenza artificiale è la prima linea di difesa e gli strumenti di intelligenza artificiale non sono nuovi, ma nel contesto del Covid-19 molte banche e società di servizi finanziari hanno deciso di accelerare il loro utilizzo dell’IA, riconoscendo l’impatto che la qualità dei dati può avere sull’ottenimento di informazioni utili e sul processo decisionale per la loro attività , clienti e società. Adottando un approccio mezzo bicchiere, Bhalla afferma che oggi abbiamo accesso a più dati che mai, abbiamo capacità in 4G e 5G, dove le società finanziarie sono in grado di elaborare i dati a “velocità fulminea” e sono in grado di sfruttare l’elaborazione potenza di grande grandezza.
Oltre a ciò, il coronavirus ha “digitalizzato la società molto rapidamente e persone che non avrebbero mai pensato di utilizzare la tecnologia sono passate ad essa”. L’intelligenza artificiale sta aiutando la nostra società a gestire questo periodo difficile e, come afferma Bhalla, ha e continuerà ad aprire le porte per una rapida digitalizzazione in futuro. Tuttavia, le persone hanno il diritto di sapere come vengono utilizzati i propri dati e, pertanto, l’intelligenza artificiale dovrebbe essere utilizzata in modo trasparente per garantire la fiducia. Siamo ancora alle prime fasi di questo viaggio.
Tornando al punto sull’evoluzione della società, è chiaro che in qualche modo la pandemia ha fatto sì che individui e imprese si siano adattati e si siano resi conto dei vantaggi che si possono trarre dall’applicazione o dall’utilizzo di tecnologie come l’AI. Tuttavia, mi chiedo se la qualità dei dati sia migliorata alla stessa velocità. Dopotutto, la conversazione sull ‘”intelligenza artificiale etica” e su come ottenerla è di vecchia data, ma se i problemi venissero risolti, si tradurrebbe nella fiducia degli utenti.
Prima di garantire la qualità dei dati, i leader aziendali devono comprendere il loro ruolo nel plasmare gli algoritmi di intelligenza artificiale, le informazioni strategiche e il processo decisionale. Mentre la prevedibilità era possibile prima della pandemia, i tempi senza precedenti rendono difficile considerare affidabili i dati.
Secondo Rumman Chowdhury, Responsible AI Lead di Accenture, la qualità dei dati e il bias sono ostacoli all’affidabilità dell’IA e possono portare a un “momento perso nella traduzione”. “Dal punto di vista della scienza dei dati, il bias è un valore quantificabile. Tutti i modelli hanno bisogno di un livello di bias per essere generalizzabili, ma spesso quando i non data scientist parlano di bias nell’IA, in realtà significano sessismo, razzismo e così via”.
Quando i modelli vengono addestrati, sono imperfetti per definizione perché devono essere flessibili e intuitivi. Dice: “se avessi creato il sistema perfetto, significherebbe che non avevamo il libero arbitrio come esseri umani. E questo è un pensiero spaventoso”.
Sebbene gli algoritmi non possano essere costruiti per essere perfetti – e non dovrebbero esserlo – le organizzazioni devono essere in grado di spiegare alle persone come viene utilizzata l’intelligenza artificiale in modo da mitigare il rischio di bias associato, i veri benefici possono essere raccolti e costruita la fiducia.