La macchina morale: chi vive, chi muore, decidi tu!
Una volta presa una decisione su come le macchine dovrebbero risolvere i compromessi morali, la domanda è come implementarla effettivamente?

Immaginare. Ad un certo punto, in un futuro non così lontano, stai guidando lungo l’autostrada in un’auto a guida autonoma, imprigionata su tutti i lati da altri veicoli. Inevitabilmente, potresti ritrovarti bloccato in una situazione pericolosa per la vita in cui la tua auto non sarà in grado di fermarsi in tempo per evitare una collisione. 

Ha una scelta: entrare in collisione con uno degli altri veicoli mettendo in pericolo la vita di un altro passeggero o mettere in pericolo la tua vita. 

Cosa pensi che farebbe?

Se stessimo guidando un’auto in modalità manuale, in qualsiasi modo scegliamo, sarebbe considerata una reazione alla situazione anziché una decisione deliberata: una reazione istintiva, potenzialmente in preda al panico, senza previdenza o malizia. 

Tuttavia, se un programmatore dovesse istruire l’auto a rispondere alla stessa chiamata in una situazione pericolosa per la vita, potrebbe essere interpretato come un omicidio premeditato. Un veicolo programmato a guida autonoma, a un certo punto, prenderebbe una vita per salvarne un’altra. 

Quindi, a chi gli diciamo di salvare quando la moralità impone di salvare entrambe le vite?

L’esperimento della macchina morale consiste nel trovare risposte a domande così tristi dal punto di vista morale.

Creata dai ricercatori Edmond Awad , Sohan Dsouza , Richard Kim , Jonathan Schulz , Joseph Henrich , Azim Shariff , Jean-François Bonnefon e Iyad Rahwan , la piattaforma sperimentale online esplora i dilemmi morali affrontati dai veicoli autonomi. 

La storia dietro la macchina morale
Quando l’ingegnere informatico siriano Edmond Awad si iscrisse a un corso introduttivo all’IA, entrò inconsapevolmente in un mondo che avrebbe alterato per sempre la sua percezione della vita.

“Sono rimasto affascinato dai concetti di molte tecniche di intelligenza artificiale come le reti neurali e gli algoritmi genetici. Mi ha spinto a leggere di più a riguardo. Poi, quando sono andato alla scuola di specializzazione, ho scelto di lavorare per il mio master e dottorato di ricerca su argomenti nei sistemi multi-agente e nell’IA simbolica. Avevo anche un interesse speciale per la moralità, la cultura e le religioni. Quindi, nel 2015, subito prima che l’etica dell’intelligenza artificiale diventasse popolare, mentre stavo per avviare un programma al MIT Media Lab, il mio consulente Iyad Rahwan mi ha parlato di questo documento che ha avuto con Jean-François Bonnefon e Azim Shariff sull’etica dell’automazione automatizzata veicoli (che alla fine è stato pubblicato su Science). Sono stato entusiasta di apprendere che esiste un potenziale argomento di ricerca che unisce i miei interessi per l’intelligenza artificiale e l’etica”, ha detto Awad a Analytics India Magazine .

 

Dopo aver espresso il suo interesse per l’argomento a Rahwan, la coppia ha iniziato a riflettere su un potenziale lavoro di follow-up del loro articolo. Hanno discusso quali altri fattori potrebbero influenzare le decisioni delle persone in situazioni simili a un carrello. 

Alla fine, Iyad ha suggerito di lavorare su un sito Web che combinasse tutti i potenziali fattori. L’obiettivo era duplice: raccogliere dati sulla percezione popolare delle decisioni morali prese dalle macchine e progettare uno strumento di coinvolgimento pubblico che promuovesse la discussione sull’etica delle macchine.

La funzionalità principale del sito Web è l’ interfaccia Judge , in cui vengono presentati tredici scenari che rappresentano i dilemmi affrontati da un’auto a guida autonoma. Questi dilemmi sono ispirati dal problema Trolley.

(Fonte immagine: Nature.com ) 

Ogni dilemma presenta due potenziali esiti negativi, ciascuno con conseguente perdita di vite umane. Il numero, il sesso, l’età, insieme ad alcuni altri fattori dei personaggi e dell’ambiente circostanti in ciascun risultato, variano a ogni occorrenza. 

Per ogni scenario, deve essere fatta una scelta per l’esito preferito. Al termine dell’esperimento viene presentata una sintesi delle decisioni assunte, un confronto con altre e un sondaggio facoltativo. 

Esistono altre parti del sito Web che consentono agli utenti di progettare i propri dilemmi ( interfaccia di progettazione ) e di sfogliare i dilemmi progettati da altri ( interfaccia di navigazione ). 

Dopo l’implementazione del sito web, il team ha aggiunto un’interfaccia Classic che presenta tre varianti del classico ” Problema Trolley “.

Apprendimento
La Moral Machine ha attirato l’attenzione di tutto il mondo e ha permesso al team di raccogliere 40 milioni di decisioni, in dieci lingue, da milioni di persone, in 233 paesi e territori.

(Fonte immagine: Nature.com )

Sulla base delle preferenze morali dei loro cittadini, i paesi si raggruppano in tre gruppi: occidentale, orientale e meridionale. È interessante notare che i partecipanti hanno mostrato forti preferenze per gli AV per risparmiare gli esseri umani rispetto agli animali domestici, per risparmiare più vite rispetto a meno vite e per risparmiare gli esseri umani più giovani rispetto agli esseri umani più anziani.

Sebbene la direzione generale delle preferenze fosse universale (p. es., la maggior parte dei paesi preferiva risparmiare le vite degli esseri umani più giovani rispetto a quelli più anziani), l’entità di queste preferenze variava considerevolmente tra i paesi (p. es., la preferenza per risparmiare vite più giovani era meno pronunciata nei paesi orientali ).

(Fonte immagine: Nature.com )

Le differenze tra i paesi possono essere spiegate da istituzioni moderne e profondi tratti culturali (ad esempio, i paesi con uno stato di diritto più forte hanno una maggiore preferenza per risparmiare i pedoni rispettosi della legge a scapito di coloro che violano le leggi sulla sicurezza stradale ).

In risposta alla varietà di risposte, che potrebbero essere tutte considerate morali, Awad spiega:

“Per molti di questi compromessi, non esiste una risoluzione (o una struttura) ideale su cui tutti gli esperti siano d’accordo. Ma nella maggior parte dei casi esistono molteplici soluzioni eticamente difendibili supportate da diversi gruppi di esperti. Questo non significa che la risposta alla tua domanda sia facile.

Per molto tempo [abbiamo] accettato e vissuto con l’idea di avere molteplici quadri etici accettati. Ma ora, con la crescente autonomia delle macchine, che le prepara ad assumere ruoli centrali nella società, siamo costretti a fare una scelta su come queste macchine dovrebbero risolvere i compromessi morali. 

La scelta di quale quadro etico dovrebbe governare la decisione della macchina dovrebbe essere scelta da una di quelle soluzioni eticamente difendibili e ben ponderate. [Ma] quale? Forse quello che piace di più alla gente, o quello che è piaciuto di più ai rappresentanti eletti incaricati di prendere una decisione del genere. 

Ora, una volta presa una decisione su come le macchine dovrebbero risolvere i compromessi morali, la domanda è come implementarla effettivamente. E questa è una sfida completamente diversa”. 

Scopri di più qui: L’auto che sapeva troppo di Jean-François Bonnefon

Macchine imparziali, la stella polare
Si presume che i sistemi di IA siano distorti rispetto ad alcuni parametri. Anche quando ci limitiamo a una dimensione (ad esempio, il genere), ci sono numerosi modi per definire “pregiudizio” e “equità” in un dato caso. 

In effetti, è stato affermato che esistono situazioni in cui solo tre definizioni sensate e semplici di equità non potrebbero essere sostenute contemporaneamente da alcun classificatore non banale.

Awad afferma: “Questo non significa che dobbiamo rinunciare a costruire macchine imparziali, ma ci aiuta a capire dove concentrare il lavoro. In effetti, alcuni esperti ritengono che correggere il pregiudizio della macchina sia più facile che correggere il pregiudizio umano. Ma essenzialmente, c’è una scelta da fare qui su quale tipo di equità è desiderabile. Questo è tornare di nuovo ai compromessi morali”.
Ci sono, naturalmente, problemi di parzialità meno controversi, problemi che si traducono in un evidente danno alla società in generale oa gruppi di minoranze. 

In generale, l’adozione di un approccio responsabile e riflessivo allo sviluppo di sistemi di intelligenza artificiale può essere utile per mitigare tali potenziali danni ed evitare conseguenze indesiderate. Un tale approccio si impegnerebbe con un gruppo eterogeneo di parti interessate fin dall’inizio.

“Nei casi di sistemi di IA preparati a svolgere un ruolo importante nella società, possiamo imparare dallo sviluppo di sistemi critici per la sicurezza che utilizzano un pacchetto di procedure di sicurezza come l’adozione di diversi livelli di sicurezza e l’esecuzione di iterazioni di test e valutazione in modo controllato ambienti e utilizzando simulazioni prima dell’implementazione”, aggiunge Awad.

Spin-off di Moral Machine
Edmond Awad afferma: “Il progetto Moral Machine ha stimolato molti progetti di follow-up incentrati sullo studio del comportamento morale e sul processo decisionale morale di esseri umani e macchine in diversi contesti e in diverse società e per fornire modelli computazionali proof-of-concept da implementare processo decisionale etico negli algoritmi basati sull’intelligenza artificiale.

Questi progetti mi hanno ispirato a dirigere insieme a Sydney Levine un’opera prospettica che propone un’agenda di ricerca e un framework intitolato ” Computational Ethics “.

Abbiamo collaborato alla stesura dell’articolo con un team di studiosi di fama mondiale di diverse discipline, tra cui filosofia, informatica, scienze cognitive e scienze sociali. In esso, proponiamo un approccio basato sul calcolo per lo studio dell’etica e sosteniamo che la nostra comprensione dell’etica umana e della macchina trarrà vantaggio da un tale approccio computazionale”.

Moral Machine ha anche ispirato la metodologia per alcuni progetti di follow-up nell’uso di siti Web sviluppati come seri giochi online con l’obiettivo di raccogliere dati su larga scala. 

Uno di questi progetti è ‘MyGoodness ‘, un sito web che genera dilemmi di beneficenza con l’obiettivo di identificare i diversi fattori che possono influenzare le persone a donare in modo inefficace. Awad ha guidato la creazione di questo sito web con il suo consulente, Iyad Rahwan, Zoe Rahwan ed Erez Yoeli . Il progetto è stato creato in collaborazione con The Life you Can Save Foundation . 

Dalla sua distribuzione nel dicembre 2017, “MyGoodness” è stata visitata da 250.000 utenti che hanno contribuito con oltre tre milioni di risposte. Ci sono altri progetti in preparazione che utilizzano un approccio simile.

Più recentemente, Edmond Awad è stato co-investigatore su una grossa sovvenzione finanziata dall’EPSRC con l’obiettivo di indagare e sviluppare il primo sistema di intelligenza artificiale per il controllo del traffico aereo. 

“Il nostro team, guidato da Tim Dodwell , è composto da ricercatori delle Università di Exeter e Cambridge, The Alan Turing Institute e NATS, il principale fornitore di servizi di controllo del traffico aereo nel Regno Unito. Il progetto è ancora in una fase iniziale, ma abbiamo già identificato sfide e lezioni che prevediamo di condividere pubblicamente ad un certo punto”, rivela Awad.

Obiettivo del ricercatore — Un coinvolgimento pubblico informato
Al termine della sua discussione sugli esperimenti e le loro implicazioni, Edmond Awad ha condiviso i suoi pensieri sull’ambito della ricerca stessa; il valore della riduzione della disinformazione; e comunicare al pubblico con chiarezza le implicazioni di tali progressi tecnologici e scientifici.

“Vorrei pensare che il nostro ruolo di ricercatori sia quello di creare conoscenza. Ma c’è molto lavoro che deve essere fatto per fornire efficacemente questa conoscenza al pubblico. La diffusione della disinformazione e la mancanza di fiducia nella scienza negli ultimi anni, soprattutto con le terribili conseguenze durante il Covid, sono un allarme per tutti gli accademici e i ricercatori sul fatto che si dovrebbe lavorare di più per comunicare la conoscenza che creiamo e per coinvolgere il pubblico nelle discussioni sulle considerazioni sociali ed etiche dei progressi scientifici e tecnologici”

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi