L’intelligenza artificiale etica non è la stessa di un’intelligenza artificiale affidabile e questo è importante
Le soluzioni di intelligenza artificiale (AI) stanno affrontando un maggiore controllo a causa della loro attitudine ad amplificare le decisioni buone e cattive. Più specificamente, per la loro propensione a smascherare e aumentare i pregiudizi sociali e le disuguaglianze esistenti. È giusto, quindi, che le discussioni sull’etica siano al centro della scena con l’aumentare dell’adozione dell’IA.
Di pari passo con l’etica arriva il tema della fiducia. L’etica è le regole guida per le decisioni che prendiamo e le azioni che intraprendiamo. Queste regole di condotta riflettono le nostre convinzioni fondamentali su ciò che è giusto ed equo. La fiducia, d’altra parte, riflette la nostra convinzione che un’altra persona – o azienda – sia affidabile, abbia integrità e si comporterà nel modo che ci aspettiamo. Etica e fiducia sono concetti discreti, ma spesso si rafforzano a vicenda.
Quindi una soluzione AI etica è intrinsecamente affidabile?
Contesto come fattore determinante della fiducia
Certamente, i sistemi non etici creano sfiducia. Non ne consegue, tuttavia, che un sistema etico sarà categoricamente attendibile. Per complicare ulteriormente le cose, non fidarsi di un sistema non significa che non verrà utilizzato.
Le funzionalità alla base delle soluzioni di intelligenza artificiale – apprendimento automatico, apprendimento profondo, visione artificiale e elaborazione del linguaggio naturale – non sono etiche o non etiche, affidabili o inaffidabili. È il contesto in cui vengono applicati che conta.
Ad esempio, utilizzando il generatore di testo GPT-3 recentemente rilasciato da OpenAI , l’intelligenza artificiale può essere utilizzata per scrivere commenti o ricette sociali. Lo spettro degli algoritmi di intelligenza artificiale che generano propaganda solleva preoccupazioni immediate. La scala alla quale un esperto di intelligenza artificiale può essere schierato per diffondere disinformazione o semplicemente influenzare le opinioni dei lettori umani che potrebbero non rendersi conto dell’origine del contenuto lo rende non etico e indegno di fiducia. Questo è vero anche se (e questo è un grande se) l’esperto dell’IA riesce a non cadere preda e ad adottare le prospettive razziste, sessiste e altre sfavorevoli diffuse nei social media oggi.
Dall’altro lato dello spettro, sospetto che il cuoco intraprendente che conduce questo esperimento di intelligenza artificiale che ha portato a un biscotto all’anguria non fosse eccessivamente preoccupato per le implicazioni etiche di una ricetta generata dalla macchina, ma è anche entrato in cucina con un sano scetticismo. La fiducia, in questo caso, viene dopo la verifica.
La fiducia dei consumatori è intenzionale
Diversi anni fa, SAS (di cui sono consulente) ha chiesto ai partecipanti al sondaggio di valutare il loro livello di comfort con l’IA in varie applicazioni, dall’assistenza sanitaria alla vendita al dettaglio. Non sono state fornite informazioni su come l’algoritmo di intelligenza artificiale sarebbe stato addestrato o su come avrebbe dovuto funzionare, ecc. È interessante notare che gli intervistati hanno indicato di fidarsi dell’IA per eseguire la chirurgia robotica più dell’IA per verificare il proprio credito. I risultati inizialmente sembravano controintuitivi. Dopo tutto, la chirurgia è una questione di vita o di morte.
Tuttavia, non è solo l’applicazione proposta, ma l’intento percepito che influenza la fiducia. Nelle applicazioni mediche c’è una convinzione implicita (speranza?) Che tutti i soggetti coinvolti siano motivati a preservare la vita. Con il credito o l’assicurazione, è chiaro che il processo riguarda tanto l’eliminazione delle persone quanto l’accoglienza. Dal punto di vista del consumatore, il potenziale e l’incentivo per la soluzione a creare un risultato negativo sono fondamentali. Un’applicazione di intelligenza artificiale che nega in modo sproporzionato alle minoranze condizioni di credito favorevoli non è etica e inaffidabile. Ma un’applicazione perfettamente imparziale che disponga ugualmente condizioni di credito sfavorevoli susciterà anche sospetti, etici o meno.
Allo stesso modo, è improbabile che un algoritmo di intelligenza artificiale per determinare la disposizione di inventario non deperibile invecchiato faccia suonare allarmi etici. Ma il responsabile del negozio seguirà i consigli dell’algoritmo? La risposta a questa domanda sta nel quanto strettamente i risultati del sistema si allineano con gli obiettivi umani. Cosa succede quando l’applicazione AI consiglia un’azione (ad esempio, buttare via le scorte) in contrasto con l’incentivo del dipendente (ad esempio, massimizzare le vendite – anche con uno sconto)? In questo caso, la fiducia richiede più della semplice IA etica; richiede anche l’adeguamento del piano di compensazione del manager, tra le altre cose.
Delineare l’etica dalla fiducia
In definitiva, l’etica può determinare se una determinata soluzione di intelligenza artificiale vede la luce. La fiducia determinerà la sua adozione e il valore realizzato.
Detto questo, le persone sono stranamente disposte a fidarsi con relativamente pochi incentivi. Questo è vero anche quando i rischi sono più alti di un biscotto gelatinoso all’anguria. Ma indipendentemente dalla posta in gioco, la fiducia, una volta persa, è difficile da riconquistare. Non più provare una ricetta senza vedere recensioni positive, preferibilmente da qualcuno di cui ti fidi delle papille gustative. Per non parlare, gli chef delusi diranno alle persone che si fidano di loro di non fidarsi di te, a volte nelle notizie. Ecco perché non proverò presto nessuna ricetta creata da AI.
Biscotti all’anguria a parte, qual è la posta in gioco per le organizzazioni che cercano di adottare l’IA? Secondo uno studio Capgemini del 2019 , la stragrande maggioranza di consumatori, dipendenti e cittadini desidera maggiore trasparenza quando un servizio è alimentato dall’intelligenza artificiale (75%) e per sapere se l’IA li tratta in modo equo (73%). Condivideranno esperienze positive (61%), saranno più fedeli (59%) e acquisteranno di più (55%) da aziende di cui si fidano per operare l’IA in modo etico ed equo. D’altro canto, il 34% smetterà di interagire con un’azienda che considera inaffidabile. Abbinalo a uno studio del maggio 2020 in cui meno di un terzo (30%) degli intervistati si sente a proprio agio con le aziende che utilizzano l’IA per interagire con loro e la posta in gioco è chiara. I leader devono costruire sistemi di intelligenza artificiale – e aziende – affidabili e affidabili. C’è di più in questo che una lista di controllo etica. Le aziende di successo avranno una strategia per raggiungere entrambi.