Ti ricordi la storia di un padre arrabbiato che è entrato in un supermercato Target per lamentarsi del fatto che sua figlia adolescente avesse ricevuto buoni di maternità, solo per scoprire pochi giorni dopo che era incinta? La storia proveniva da un articolo del New York Times del 2012 e segnalava l’arrivo dell’analisi predittiva. Nonostante il ragionevole scetticismo sul fatto che la storia fosse reale, ha contribuito ad avviare un dibattito etico sulla privacy dei consumatori che si è solo intensificato. Oggi viviamo in un mondo con capacità predittive più potenti e più dati personali da sfruttare. Abbiamo raggiunto un’era in cui l’intelligenza artificiale può fare molto di più di una gravidanza adolescenziale. Le organizzazioni che sviluppano un’IA legale e moralmente difendibile si trovano ancora a lottare con la saggezza delle loro creazioni. Nel 2012, Andrew Pole, il programma di previsione della gravidanza di Target, il creatore, ha detto questo al New York Times: “Siamo molto conservatori riguardo al rispetto di tutte le leggi sulla privacy. Ma anche se stai seguendo la legge, puoi fare cose in cui le persone si sentono nauseate “. Cosa fai quando ti senti nauseato per un nuovo programma di intelligenza artificiale, anche se è probabilmente etico? Come decidi se andare avanti?

Considera alcuni esempi contemporanei. Probabilmente hai visto molte storie su come possiamo sfruttare l’intelligenza artificiale per prevedere i risultati del Covid-19. Possiamo utilizzare dati demografici e sanitari per costruire un modello di apprendimento automatico che preveda i risultati dei pazienti in base a molteplici variabili: condizioni di salute precedenti, comportamenti, condizioni di vita e ambiente. Possiamo utilizzare questi dati per prevedere come potrebbe progredire l’infezione di un paziente e creare un piano di trattamento personalizzato. È un programma che probabilmente non farà sentire nauseato a nessuno, giusto? Ma sta prendendo dati sulla salute personale e comportamentali e usandoli per prevedere i risultati di salute al fine di migliorare l’assistenza. Cosa succede se usiamo lo stesso concetto al di fuori di un’emergenza pubblica?

I pagatori e i sistemi ospedalieri dispongono di dati su molti dei loro pazienti. Capiscono quali pazienti scadono nei loro trattamenti, chi è probabile che abbia una bassa compliance ai regimi farmacologici e chi potrebbe ritrovarsi in ospedale, costando di più ai pagatori e agli ospedali. Armati di queste informazioni, i pagatori potrebbero progettare interventi al fine di aiutare i pazienti e se stessi. Potrebbero risparmiare denaro per il sistema e aiutare i pazienti a rispettare le loro cure dando loro sollecitazioni e promemoria. Ma è facile vedere come un tale sistema possa sembrare invadente per i pazienti.

Guardando al di fuori dell’assistenza sanitaria, immagina un modello che preveda l’abbandono dei dipendenti. Analizzerebbe anche i dati comportamentali per aiutare l’organizzazione. Potrebbe aiutare anche i dipendenti insoddisfatti, quando l’azienda si sforza di trattenerli. Ma cosa succede se il modello fa un errore? O cosa succede se i dipendenti sospettano che ogni loro azione venga monitorata? Quello è buono? Potrebbe iniziare a far venire la nausea a qualcuno, giusto?

Andiamo ancora oltre. Una combinazione di grandi compagnie di assicurazione sanitaria e sistemi di fornitori ha accesso ai dati sulle richieste di risarcimento di milioni di pazienti. Possono estrarre i dati per identificare qualcuno che potrebbe soffrire di una malattia un giorno e invitarli a ottenere cure proattive. Se sanno che un giorno un cliente svilupperà un disturbo attualmente dormiente, cosa succederà? Dovrebbero condividere le informazioni con l’individuo? E se l’individuo non vuole sapere? E se fosse in pericolo di vita? I pazienti dovrebbero avere il diritto di rinunciare?


Quando affrontiamo dilemmi come questo, come ci facciamo strada attraverso di essi come organizzazioni? Sento spesso di quello che viene definito “il test del New York Times”. Cioè, chiediti semplicemente: “Ti sentirai bene con il tuo programma se le sue pratiche diventeranno la prima pagina del New York Times?” È un punto di partenza valido, ma penso che ci sia un altro livello di considerazione. Ecco una pratica che ho preso in prestito dalle vendite: insegniamo ai venditori che per avere successo, tra le altre cose, il valore per il cliente deve essere maggiore del prezzo che sono disposti a pagare per questo. Questa massima ci fornisce una linea guida semplice: il cliente e il venditore devono essere entrambi in condizioni migliori dopo la transazione.

Se applichiamo questo modo di pensare agli esempi precedenti, come potrebbe guidare il nostro processo decisionale? Quando si tratta di prevedere gli esiti sulla salute del Covid-19, l’organizzazione sta meglio e il cliente sta meglio. È sia etico che prudente. Se stai cercando di spingere i pazienti a rimanere conformi, l’ospedale sta meglio ei pazienti, sebbene potenzialmente irritati, probabilmente stanno meglio. È un po ‘oscuro, ma il loro vantaggio maggiore suggerisce che l’applicazione potrebbe essere abbastanza prudente da testare. Quando si parla di fidelizzazione dei dipendenti, l’organizzazione sta meglio, ma è il dipendente? Potrebbe dipendere dall’organizzazione e dalla sua cultura. Potresti sostenere che, ad esempio, il 20% dei tuoi dipendenti che è infelice starebbe meglio se gli sforzi di conservazione avessero successo,

Infine, quando si tratta di compagnie di assicurazione che sfruttano i predittori di salute, ciò andrebbe a vantaggio finanziario dell’organizzazione, ma andrebbe a vantaggio dei clienti? È una domanda molto difficile a cui rispondere che dovrebbe far riflettere i suoi creatori. Potrebbe salvare alcune vite, che non possono essere liquidate. Ma immaginate l’angoscia che provocherebbe una persona sana nell’apprendere di avere una malattia genetica che un giorno potrebbe manifestarsi? Di nuovo, e se ci fosse un errore? Anche se ai clienti fosse concesso un opt-out, riesci a immaginare l’ansia che il cliente medio proverebbe nel decidere se aderire a un programma che potrebbe prevedere malattie future? Acquistiamo assicurazioni per sentirci al sicuro. Il tuo primo incontro con il programma ti metterebbe nervoso e metterà l’azienda in una situazione difficile: a causa di una rinuncia, potrebbe essere necessario sedersi su informazioni salvavita.

Un’altra massima delle vendite che mi piace considerare è che il valore che i clienti ricevono deve essere comunicato e rafforzato ripetutamente dal venditore. Applicare questo concetto qui: non si tratta sempre di ciò che l’AI può fare, ma di come i clienti sono fatti per realizzare il suo valore, che spesso richiede un tocco umano. Nel caso dei due esempi di assistenza sanitaria sopra, significherebbe evitare avvisi di freddo su uno smartphone e optare per una chiamata dal medico. Ovviamente, ciò significherebbe coinvolgere i medici, una richiesta aggiuntiva per garantire la prudenza della soluzione che si sta sviluppando.

Qualcosa può essere legale ma non etico. La legalità non dovrebbe essere l’unica considerazione. Il tuo ufficio legale non dovrebbe essere l’unico fattore determinante dell’adeguatezza della tua intelligenza artificiale. Ma ciò di cui discutiamo raramente è che qualcosa può essere etico, può persino salvare vite umane, ma non è comunque una buona idea. Quando stai progettando il tuo prossimo programma basato sull’intelligenza artificiale che estrae i dati dei clienti, ricorda di fare del vantaggio del cliente la tua priorità. Consenti a un team diversificato di prendere una decisione ponderata sulla prudenza della tua intelligenza artificiale. I tuoi criteri dovrebbero essere che l’azienda e il cliente stiano entrambi meglio. Chiediti: “Mi sentirei a mio agio nel difendere il mio programma a un cliente e nel sostenere che è a loro vantaggio?” O sarebbe un esercizio scomodo? Alcune IA semplicemente non dovrebbero esserlo. C’è l’etica e poi c’è la prudenza.

Di ihal