Il dilemma morale di incorporare l’etica nei veicoli autonomi

Le auto a guida autonoma sono tra i primi agenti autonomi che esprimono giudizi con potenziali conseguenze sulla vita o sulla morte.
 

Allo stato attuale, le auto a guida autonoma hanno un tasso di incidenti più elevato rispetto alle auto a guida umana. Le auto a guida autonoma sono responsabili di 9,1 incidenti per milione di miglia percorse, rispetto ai veicoli normali. 4.1.

L’incidente mortale di Uber nel novembre 2018 è la prima morte al mondo per un’auto a guida autonoma. L’auto ha ucciso un pedone dopo che il suo sistema di frenata di emergenza automatica si è guastato. 

Gli AV sono tra i primi agenti autonomi che esprimono giudizi con potenziali conseguenze sulla vita o sulla morte. Sebbene la tecnologia di guida autonoma abbia fatto passi da gigante nell’ultimo decennio, il lato etico è ancora bloccato in un territorio rischioso. Questo perché gli esseri umani e gli AV esprimono giudizi etici che sono fondamentalmente diversi.

I comportamenti di prevenzione degli incidenti sono cablati negli esseri umani e i nostri riflessi si attivano entro 2 secondi di fronte al pericolo. Ma gli esseri umani possono essere ritenuti moralmente responsabili delle loro reazioni involontarie a tali situazioni? D’altra parte, gli AV sono dotati di sofisticati sensori e algoritmi per prevedere e reagire alle collisioni meglio dei conducenti umani. Tuttavia, i giudizi AV non tengono conto delle ripercussioni  etiche .

Il dilemma morale
Il dilemma etico AV è un’estensione del problema del carrello che ruota attorno a due concetti principali: deontologia (un insieme di principi per determinare il bene e il male); e utilitarismo (un sistema di regole per determinare il bene e il male in base ai risultati). Tuttavia, molti ricercatori respingono l’etica AV basata sul problema del carrello per i seguenti motivi:

• Gli scenari ipotetici costruiti sul problema del carrello sono semplicistici e vaghi. La maggior parte delle situazioni di dilemma morale AV si concentra principalmente sui risultati di opzioni binarie specificate, come il numero o le caratteristiche delle persone colpite. In questo approccio vengono ignorati altri elementi cruciali relativi agli arresti anomali AV, tra cui regole, doveri e norme morali.

• I risultati sono quasi distorti. Gli scenari di risoluzione dei problemi del carrello spesso iniziano favorendo una particolare teoria morale, risultando in un’interpretazione distorta dei risultati. Per questo motivo, gli studi hanno rivelato una disparità tra le preferenze delle persone e l’accettazione degli AV utilitaristici. Ad esempio, a molti piace l’idea di AV utilitaristici che salvano più vite, ma preferiscono acquistare AV che mettano la loro sicurezza al primo posto.

• Il problema del carrello non ha condizioni di parità. La scelta di uccidere si basa sui costumi sociali e sulle caratteristiche delle parti coinvolte (ad es. salvare le donne e uccidere gli uomini) ed è sprezzante nei confronti dell’uguale diritto alla vita. Inoltre, la discriminazione basata sulle caratteristiche personali non ha valore legale in molti paesi. Di conseguenza, i pregiudizi dell’IA tendono a indignare le masse e, a loro volta, ostacolano l’adozione di massa degli AV.

L’etica AV basata sui problemi del carrello è dogmatica poiché si basa su un’unica dottrina morale (ad esempio, utilitaristica). Tuttavia, la moralità umana è pluralistica, il che richiede idee etiche AV alternative all’utilitarismo.

Tempo per un nuovo approccio
I limiti dell’etica AV basata sui problemi del carrello possono essere affrontati incorporando molteplici contesti di incidente e valori umani. Ciò comporta la spiegazione dei comportamenti morali AV per garantire che i sistemi AV siano trasparenti. Un metodo per raggiungere questo obiettivo è creare un framework AV che spieghi e preveda l’intero processo decisionale etico basato sui valori degli utenti finali.

Indiscutibilmente, uno sforzo coordinato e interdisciplinare dalle sfere tecnologiche, normative e sociali è la necessità del momento. È fondamentale per le parti interessate in tutto il dominio (come sviluppatori AV, ingegneri, regolatori, esperti di etica e scienziati sociali) avere un dialogo aperto sulla creazione di comportamenti morali allineati al valore in AV.

L’intelligenza artificiale è un campo alle prime armi e dobbiamo rendere conto delle incognite sconosciute prima di codificare l’etica AV. La maggior parte degli AV sono sviluppati da ingegneri, specialisti dei trasporti, politici ed esperti di etica dell’IA e la probabilità che i loro pregiudizi si insinuino nello stack tecnologico AV è davvero alta. Il giudizio morale dei conducenti gioca un ruolo enorme nel loro processo decisionale e dovrebbe essere tenuto in considerazione durante la creazione di modelli di intelligenza artificiale per gli AV. Inoltre, il processo decisionale etico deve spiegare gli aspetti sia intuitivi che razionali dei comportamenti etici di AV. Per risolvere questo problema, i ricercatori raccomandano di utilizzare la teoria del doppio processo del ragionamento morale per spiegare e prevedere il ragionamento morale pluralistico. 

Abbiamo bisogno di sviluppare un’etica descrittiva per comprendere meglio il dilemma morale AV . Dal momento che non abbiamo ancora molti dati sugli arresti anomali AV e nessun consenso sul codice etico AV, non siamo nella posizione di costruire modelli di IA eticamente consapevoli per gli AV. Sarà difficile cambiare le decisioni e le politiche AV una volta stabilite. Ciò significa che non c’è margine di errore quando si progettano principi etici normativi per AV.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi