Come gestire il rischio quando l’IA si diffonde all’interno dell’organizzazione 

Poiché l’IA si diffonde in tutta l’azienda, le organizzazioni hanno difficoltà a bilanciare i vantaggi con i rischi. L’intelligenza artificiale è già integrata in una gamma di strumenti, dalla gestione dell’infrastruttura IT al software DevOps alle suite CRM, ma la maggior parte di questi strumenti è stata adottata senza una strategia di mitigazione del rischio basata sull’intelligenza artificiale . 

Ovviamente, è importante ricordare che l’elenco dei potenziali vantaggi dell’IA è tanto lungo quanto i rischi, motivo per cui così tante organizzazioni risparmiano sulle valutazioni dei rischi in primo luogo. 

  
Molte organizzazioni hanno già compiuto importanti progressi che non sarebbero stati possibili senza l’IA. Ad esempio, l’intelligenza artificiale viene implementata in tutto il settore sanitario per qualsiasi cosa, dalla chirurgia assistita da robot alla riduzione degli errori di dosaggio dei farmaci fino ai flussi di lavoro amministrativi semplificati. GE Aviation si affida all’IA per costruire modelli digitali che predicono meglio quando le parti si guastano e, naturalmente, ci sono molti modi in cui l’IA viene utilizzata per risparmiare denaro, come avere l’IA conversazionale che prende gli ordini dei ristoranti drive-thru.

Questo è il lato positivo dell’IA.

 

Ora, diamo un’occhiata al cattivo e al brutto. 

Il cattivo e il brutto dell’IA: pregiudizi, problemi di sicurezza e guerre di robot
I rischi dell’IA sono vari quanto i numerosi casi d’uso che i suoi sostenitori promuovono, ma tre aree si sono rivelate particolarmente preoccupanti: pregiudizi, sicurezza e guerra. Diamo un’occhiata a ciascuno di questi problemi separatamente. 

 
Pregiudizio
Mentre i dipartimenti delle risorse umane inizialmente pensavano che l’IA potesse essere utilizzata per eliminare i pregiudizi nelle assunzioni, si è verificato il contrario. I modelli costruiti con pregiudizi impliciti incorporati nell’algoritmo finiscono per essere attivamente prevenuti nei confronti delle donne e delle minoranze. 

Ad esempio, Amazon ha dovuto eliminare il suo strumento di screening automatizzato del curriculum basato sull’intelligenza artificiale perché ha filtrato le candidate donne. Allo stesso modo, quando Microsoft ha utilizzato i tweet per addestrare un chatbot a interagire con gli utenti di Twitter, ha creato un mostro. Come dice un titolo di CBS News, ” Microsoft chiude il chatbot AI dopo che si è trasformato in un nazista “. 

Questi problemi possono sembrare inevitabili con il senno di poi, ma se leader di mercato come Microsoft e Google possono commettere questi errori, lo può fare anche la tua azienda. Con Amazon, l’IA era stata addestrata su curriculum che provenivano in modo schiacciante da candidati maschi. Con il chatbot di Microsoft, l’unica cosa positiva che puoi dire di quell’esperimento è che almeno non hanno usato 8chan per addestrare l’IA . Se passi cinque minuti a nuotare attraverso la tossicità di Twitter, capirai che idea terribile è stata usare quel set di dati per l’allenamento di qualsiasi cosa. 

 
Problemi di sicurezza
Uber, Toyota, GM, Google e Tesla, tra gli altri, hanno gareggiato per rendere le flotte di veicoli a guida autonoma una realtà. Sfortunatamente, più i ricercatori sperimentano con le auto a guida autonoma, più la visione completamente autonoma si allontana in lontananza. 

Nel 2015 il primo decesso causato da un’auto a guida autonoma è avvenuto in Florida. Secondo la National Highway Traffic Safety Administration, una Tesla in modalità pilota automatico non si è fermata per il rimorchio di un trattore che svolta a sinistra in un incrocio. La Tesla si è schiantata contro il grande rig, ferendo mortalmente l’autista. 

 
Questo è solo uno di un lungo elenco di errori commessi dai veicoli autonomi. Le auto a guida autonoma di Uber non si rendevano conto che i pedoni potevano camminare in jaywalk . Una Lexus alimentata da Google ha spostato lateralmente un autobus municipale nella Silicon Valley e ad aprile un semirimorchio TruSimple parzialmente autonomo ha deviato in uno spartiacque centrale in cemento sulla I-10 vicino a Tucson, in Arizona, perché l’autista non aveva riavviato correttamente il sistema di guida autonoma. facendo in modo che il camion segua comandi obsoleti.  

In effetti, le autorità di regolamentazione federali riferiscono che le auto a guida autonoma sono state coinvolte in quasi 400 incidenti sulle strade statunitensi in meno di un anno (dal 1 luglio 2021 al 15 maggio 2022). Sei persone sono morte in quei 392 incidenti e cinque sono rimaste gravemente ferite. 

Nebbia di guerra
Se gli incidenti con veicoli a guida autonoma non sono un problema di sicurezza sufficiente, prendi in considerazione i warcraft autonomi. 

 
I droni autonomi alimentati dall’IA stanno ora prendendo decisioni di vita o di morte sul campo di battaglia e i rischi associati a possibili errori sono complessi e controversi . Secondo un rapporto delle Nazioni Unite, nel 2020 un quadrirotore autonomo di costruzione turca ha deciso di attaccare i combattenti libici in ritirata senza alcun intervento umano.

I militari di tutto il mondo stanno valutando una gamma di applicazioni per i veicoli autonomi, dal combattimento al trasporto navale fino al volo in formazione con jet da combattimento pilotati . Anche quando non cacciano attivamente il nemico, i veicoli militari autonomi potrebbero comunque commettere un numero qualsiasi di errori mortali simili a quelli delle auto a guida autonoma.

7 passaggi per mitigare i rischi dell’IA in tutta l’azienda
Per l’azienda tipica, i tuoi rischi non saranno spaventosi come i droni killer, ma anche un semplice errore che causa il guasto di un prodotto o ti apre a cause legali potrebbe portarti in rosso. 

Per mitigare meglio i rischi man mano che l’IA si diffonde all’interno dell’organizzazione, considera questi 7 passaggi: 

 
Inizia con i primi utenti
Per prima cosa, guarda i luoghi in cui l’IA ha già preso piede. Scopri cosa sta funzionando e costruisci su quella base. Da questo, puoi sviluppare un modello di implementazione di base che i vari dipartimenti possono seguire. Tuttavia, tieni presente che qualsiasi piano di adozione dell’IA e modello di implementazione che sviluppi dovrai ottenere il consenso in tutta l’organizzazione per essere efficace. 

Individua la testa di ponte corretta
La maggior parte delle organizzazioni vorrà iniziare in piccolo con la propria strategia di intelligenza artificiale, pilotando il piano in uno o due dipartimenti. Il punto logico da cui partire è dove il rischio è già una delle principali preoccupazioni, come Governance, Risk, and Compliance (GRC) e Regulatory Change Management (RCM).

 
Il GRC è essenziale per comprendere le numerose minacce alla tua attività in un mercato ipercompetitivo e l’RCM è essenziale per mantenere la tua organizzazione dalla parte giusta delle numerose leggi che devi seguire in più giurisdizioni. Ogni pratica è anche quella che include processi manuali, ad alta intensità di manodopera e in continua evoluzione.

Con GRC, l’IA può gestire compiti complicati come avviare il processo di definizione di concetti confusi come “cultura del rischio” oppure può essere utilizzata per raccogliere dati pubblicamente disponibili dai concorrenti che aiuteranno a dirigere lo sviluppo di nuovi prodotti in un modo che non violi il copyright le leggi. 

In RCM, trasferire cose come la gestione delle modifiche normative e il monitoraggio dell’assalto quotidiano delle azioni di contrasto può restituire agli esperti di conformità fino a un terzo delle loro giornate lavorative per attività di valore superiore. 

Mappa i processi con esperti
L’IA può seguire solo i processi che sei in grado di mappare in dettaglio. Se l’IA avrà un impatto su un ruolo particolare, assicurati che le parti interessate siano coinvolte nelle fasi di pianificazione. Troppo spesso, gli sviluppatori vanno avanti senza un input sufficiente da parte degli utenti finali che adotteranno o rifiuteranno questi strumenti. 

 
Concentrati sui flussi di lavoro e sui processi che trattengono gli esperti
Cerca processi ripetitivi, manuali, soggetti a errori e probabilmente noiosi per gli umani che li eseguono. Logistica, vendite e marketing e ricerca e sviluppo sono tutte aree che includono compiti ripetitivi che possono essere affidati all’IA. L’IA può migliorare i risultati aziendali in queste aree migliorando l’efficienza e riducendo gli errori. 

Controlla accuratamente i tuoi set di dati
 
I ricercatori dell’Università di Cambridge hanno recentemente studiato 400 modelli di intelligenza artificiale correlati a COVID-19 e hanno scoperto che ognuno di loro aveva difetti fatali . I difetti rientravano in due categorie generali, quelli che utilizzavano set di dati troppo piccoli per essere validi e quelli con una divulgazione di informazioni limitata, che portava a vari pregiudizi.

I piccoli set di dati non sono l’unico tipo di dati che può eliminare i modelli. I set di dati pubblici possono provenire da origini non valide. Ad esempio, Zillow ha introdotto l’anno scorso una nuova funzionalità chiamata Zestimate che utilizzava l’IA per fare offerte in contanti per le case in una frazione del tempo normalmente necessario. L’algoritmo Zestimate ha finito per fare migliaia di offerte superiori al mercato basate su dati imperfetti dell’Home Mortgage Disclosure Act, che alla fine hanno spinto Zillow a offrire un premio di un milione di dollari per il miglioramento del modello. 

Scegli il modello di IA giusto
Man mano che i modelli di intelligenza artificiale si evolvono, solo un piccolo sottoinsieme di essi è completamente autonomo. Nella maggior parte dei casi, tuttavia, i modelli di intelligenza artificiale traggono grande vantaggio dall’avere input umani attivi (o meglio esperti). “AI supervisionata” si affida agli esseri umani per guidare l’apprendimento automatico, piuttosto che lasciare che gli algoritmi capiscano tutto da soli. 

 
Per la maggior parte del lavoro di conoscenza, sarà richiesta un’IA supervisionata per raggiungere i tuoi obiettivi. Per il lavoro complicato e specializzato, tuttavia, l’IA supervisionata non ti porta ancora lontano come la maggior parte delle organizzazioni vorrebbe arrivare. Per salire di livello e sbloccare il vero valore dei tuoi dati, l’IA non ha bisogno solo della supervisione, ma del contributo di esperti. 

Il modello Expert-in-the-Loop (EITL) può essere utilizzato per affrontare grandi problemi o quelli che richiedono un giudizio umano specializzato. Ad esempio, EITL AI è stato utilizzato per scoprire nuovi polimeri , migliorare la sicurezza degli aerei e persino per aiutare le forze dell’ordine a pianificare come far fronte ai veicoli autonomi .

Inizia in piccolo ma sogna in grande
Assicurati di testare a fondo e quindi continuare a controllare i processi basati sull’intelligenza artificiale, ma una volta che hai risolto i problemi, ora hai un piano per estendere l’IA a tutta l’organizzazione sulla base di un modello che hai già testato e provato in aree specifiche, come GRC e RCM. 

di Kayvan Alikhani che è cofondatore e chief product officer di Compliance.ai . Kayvan in precedenza ha guidato il team di Identity Strategy presso RSA. ed è stato co-fondatore e CEO di PassBan (acquisita da RSA). 

Di ihal