Secondo un sondaggio, il 65% dei dirigenti non riesce a spiegare come i loro modelli di intelligenza artificiale prendono decisioni 

Nonostante la crescente domanda e l’uso di strumenti di intelligenza artificiale, il 65% delle aziende non è in grado di spiegare come vengono prese le decisioni o le previsioni sui modelli di intelligenza artificiale. Questo è secondo i risultati di un nuovo sondaggio della società di analisi globale FICO e Corinium, che ha intervistato 100 dirigenti di analisi e dati di livello C per capire come le organizzazioni stanno implementando l’intelligenza artificiale e se stanno garantendo che l’intelligenza artificiale sia utilizzata in modo etico.

“Negli ultimi 15 mesi, sempre più aziende hanno investito in strumenti di intelligenza artificiale, ma non hanno elevato l’importanza della governance dell’intelligenza artificiale e dell’intelligenza artificiale responsabile a livello di consiglio di amministrazione”, ha dichiarato Scott Zoldi, chief analytics officer di FICO. “Le organizzazioni sfruttano sempre più l’AI per automatizzare i processi chiave che, in alcuni casi, stanno prendendo decisioni che cambiano la vita dei loro clienti e delle parti interessate. La leadership e i consigli di amministrazione senior devono comprendere e applicare una governance del modello di intelligenza artificiale controllabile e immutabile e il monitoraggio del modello di prodotto per garantire che le decisioni siano responsabili, eque, trasparenti e responsabili.

 
Lo studio, commissionato da FICO e condotto da Corinium, ha rilevato che il 33% dei team esecutivi ha una comprensione incompleta dell’etica dell’IA . Sebbene il personale IT, di analisi e di conformità abbia la massima consapevolezza, la comprensione tra le organizzazioni rimane frammentaria. Di conseguenza, esistono ostacoli significativi alla creazione di supporto: il 73% delle parti interessate afferma di aver faticato a ottenere supporto esecutivo per pratiche di intelligenza artificiale responsabili .

Implementare l’AI in modo responsabile significa cose diverse per aziende diverse. Per alcuni, “responsabile” implica l’adozione dell’IA in modo etico, trasparente e responsabile. Per altri, significa garantire che il loro uso dell’IA rimanga coerente con leggi, regolamenti, norme, aspettative dei clienti e valori organizzativi. In ogni caso, “l’intelligenza artificiale responsabile” promette di proteggersi dall’uso di dati o algoritmi distorti, fornendo la garanzia che le decisioni automatizzate siano giustificate e spiegabili, almeno in teoria.

Secondo Corinium e FICO, mentre quasi la metà (49%) degli intervistati riporta un aumento delle risorse assegnate ai progetti di IA nell’ultimo anno, solo il 39% e il 28% afferma di aver dato la priorità alla governance dell’IA e al monitoraggio o alla manutenzione dei modelli , rispettivamente. Un potenziale contributo al divario etico è la mancanza di consenso tra i dirigenti su quali dovrebbero essere le responsabilità di un’azienda quando si tratta di intelligenza artificiale. La maggior parte delle aziende (55%) concorda sul fatto che l’IA per l’acquisizione dei dati deve soddisfare gli standard etici di base e che anche i sistemi utilizzati per le operazioni di back-office devono essere spiegabili. Ma quasi la metà (43%) afferma di non avere responsabilità oltre al rispetto dei regolamenti per gestire i sistemi di intelligenza artificiale le cui decisioni potrebbero influenzare indirettamente i mezzi di sussistenza delle persone.

Capovolgere la marea
Cosa possono fare le aziende per abbracciare l’IA responsabile? La lotta ai pregiudizi è un passo importante, ma solo il 38% delle aziende afferma di avere passaggi di mitigazione dei pregiudizi integrati nei processi di sviluppo del modello. Infatti, solo un quinto degli intervistati (20%) al sondaggio Corinium e FICO monitora attivamente i propri modelli in produzione per correttezza ed etica, mentre solo uno su tre (33%) dispone di un team di convalida dei modelli per valutare i modelli di nuova concezione.

I risultati concordano con un recente sondaggio del Boston Consulting Group su 1.000 aziende, che ha rilevato che meno della metà di coloro che hanno raggiunto l’AI su larga scala aveva implementazioni AI completamente mature e “responsabili”. Il ritardo nell’adozione di un’IA responsabile smentisce il valore che queste pratiche possono apportare. Uno studio di Capgemini ha rilevato che i clienti e i dipendenti ricompenseranno le organizzazioni che praticano l’IA etica con maggiore lealtà, più affari e persino la volontà di difenderli e, a loro volta, puniranno coloro che non lo fanno.

Stando così le cose, le aziende sembrano comprendere il valore della valutazione dell’equità dei risultati del modello, con il 59% degli intervistati che afferma di farlo per rilevare la distorsione del modello. Inoltre, il 55% afferma di isolare e valutare le caratteristiche latenti del modello per la distorsione e la metà (50%) afferma di avere una definizione matematica codificata per la distorsione dei dati e controlla attivamente la distorsione nelle fonti di dati non strutturati.

Le aziende riconoscono anche che le cose devono cambiare, poiché la stragrande maggioranza (90%) concorda sul fatto che i processi inefficienti per il monitoraggio dei modelli rappresentano un ostacolo all’adozione dell’IA. Per fortuna, quasi i due terzi (63%) degli intervistati al rapporto Corinium e FICO ritengono che l’etica dell’IA e l’IA responsabile diventeranno un elemento centrale della strategia della propria organizzazione entro due anni.

“La comunità aziendale è impegnata a guidare la trasformazione attraverso l’automazione basata sull’intelligenza artificiale. Tuttavia, i dirigenti senior e i consigli di amministrazione devono essere consapevoli dei rischi associati alla tecnologia e alle best practice per mitigarli in modo proattivo “, ha aggiunto Zoldi. “L’intelligenza artificiale ha il potere di trasformare il mondo, ma come dice il proverbio popolare, da un grande potere derivano grandi responsabilità”.

 

Di ihal