I progressi nell’intelligenza artificiale (AI) continueranno a stimolare l’adozione diffusa di robot nella nostra vita quotidiana. I robot che una volta sembravano così costosi da poter essere offerti solo per scopi di produzione pesante sono gradualmente diminuiti di costo e di dimensioni ugualmente ridotte. Puoi considerare che l’aspirapolvere Roomba a casa tua sia un tipo di robot, anche se non abbiamo ancora il robot maggiordomo domestico sempre promesso che avrebbe dovuto prendersi cura delle nostre faccende quotidiane di routine.
Forse uno degli aspetti più noti dei robot è il leggendario set di tre regole offerto dallo scrittore Isaac Asimov. Il suo racconto di fantascienza intitolato Le tre leggi è stato pubblicato nel 1942 e apparentemente è stato inarrestabile in termini di continuo interesse e abbraccio.
Ecco le tre regole che ha sapientemente ideato:
1) Un robot non può ferire un essere umano o, per inerzia, permettere a un essere umano di subire danni,
2) Un robot deve obbedire agli ordini impartitigli dagli esseri umani tranne quando tali ordini sarebbero in conflitto con la Prima Legge,
3) Un robot deve proteggere la propria esistenza fintanto che tale protezione non è in conflitto con la Prima o la Seconda Legge.
Sebbene si riferisse a queste come leggi, sappi che apparentemente non sono leggi effettive di per sé.
Un punto di vista sulle leggi è la nozione di leggi di natura. Queste tre regole non sono leggi della natura poiché non c’è nulla in esse che in qualche modo sia determinabile come inesorabilmente imbevute dalla natura o richieste dal corso della natura. Queste regole sono create dall’uomo e l’umanità discrezionale. Possono essere osservati e obbediti, oppure possono essere completamente ignorati, qualunque sia la nostra scelta di attenerci.
Un’altra prospettiva sulle leggi è l’aspetto dei regolamenti e delle disposizioni derivate dall’umanità. La nostra venerata Costituzione è un’indicazione delle leggi, qualcosa che noi come società abbiamo deciso di provare a vivere. In questo modo di considerazione, si potrebbe sostenere che Asimov stava proponendo leggi che dovremmo inserire nei nostri libri legali come ragionevole in un’era di robot che potrebbero vagare tra noi.
Le sue tre regole non sono ancora incorporate direttamente nelle nostre leggi e dovremo vedere se alla fine ha senso codificarle esplicitamente di conseguenza. Potresti scoprire che in questo momento c’è molta angoscia e attenzione su come governare al meglio i più recenti sistemi di intelligenza artificiale e potremmo trovarci a fare affidamento sulle tre regole di Asimov (per le mie discussioni sull’etica e la governance dell’IA, vedi il link qui ).
Quando leggi le osservazioni di Asimov sui robot, potresti voler sostituire la parola “robot” con il moniker generale di AI. Dico questo perché è probabile che tu interpreti in modo restrittivo le sue tre regole come se si applicassero solo a un robot che sembra assomigliare a noi, convenzionalmente con gambe, braccia, testa, corpo e così via.
Non tutti i robot sono necessariamente disposti in questo modo.
Alcuni degli ultimi robot sembrano animali. Forse hai visto i popolari video online di robot a quattro zampe che sembrano essere un cane o un tipo simile di creatura. Ci sono persino robot che assomigliano a insetti. Sembrano un po ‘inquietanti, ma comunque sono importanti come mezzo per capire come potremmo utilizzare la robotica in tutti i tipi di possibilità.
Un robot non deve essere ispirato biologicamente. Un aspirapolvere robotico non assomiglia particolarmente a nessun animale o insetto consueto. Puoi aspettarti che avremo tutti i tipi di robot che sembrano piuttosto insoliti e non sembrano essere basati esclusivamente su alcun organismo vivente.
Ad ogni modo, tra la varietà di robot che vedremo emergere, le tre regole di Asimov sono molto utili, indipendentemente dal tipo di robot e dall’aspetto che potrebbe avere. So che forse sembra un po ‘uno sforzo di immaginazione, ma l’umile vuoto robotico può essere un candidato per rispettare le tre regole. Sì, presumibilmente, il tuo vorticoso aspirapolvere robotico nella tua casa non dovrebbe cercare di farti del male e dovrebbe fare il possibile per evitare di farlo.
Alcuni robot sono prontamente davanti ai nostri occhi e tuttavia non li consideriamo robot.
Uno di questi esempi è l’avvento delle vere auto a guida autonoma basate sull’intelligenza artificiale.
Si può dire che un’auto guidata da un sistema di intelligenza artificiale sia un tipo di robot. Il motivo per cui potresti non pensare a un’auto a guida autonoma come a un robot è che non ha quel robot che parla e cammina seduto al posto di guida. Invece, il sistema informatico nascosto nel sottoscocca o nel bagagliaio dell’auto sta facendo la guida. Questo sembra sfuggire alla nostra attenzione e quindi il veicolo non sembra essere una specie di robot, anche se in effetti lo è.
Nel caso ve lo stiate chiedendo, sono in corso incoraggianti sforzi per creare robot che parlano a piedi in grado di guidare un’auto (vedere la mia copertura a questo link qui ).
Immagina come ciò sconvolgerebbe il nostro mondo.
In questo momento, la creazione di un’auto a guida autonoma implica la modifica dell’auto in modo che si guidi da sola. Se avessimo robot in grado di camminare, sedersi in macchina e guidare il veicolo, ciò significherebbe che tutte le auto esistenti potrebbero essere essenzialmente considerate auto a guida autonoma (il che significa che potrebbero essere guidate da tali robot, piuttosto che avere un l’uomo guida l’auto). Invece di smantellare gradualmente le auto convenzionali per l’arrivo di auto a guida autonoma, non ci sarebbe bisogno di escogitare un’auto a guida autonoma completamente contenuta e faremmo affidamento su quei robot serpeggianti come nostri conducenti.
In questo momento, il percorso più veloce o più rapido per avere auto a guida autonoma è l’integrazione nell’approccio del veicolo. Alcuni credono che ci sia un’amara ironia in questo approccio. Sostengono che queste emergenti auto a guida autonoma saranno inevitabilmente usurpate da quei robot che parlano a piedi. In questo senso, l’auto a guida autonoma di oggi diventerà obsoleta e fuori moda, lasciando il posto a ancora una volta i controlli di guida convenzionali in modo che il veicolo possa essere guidato da un essere umano o da un robot alla guida.
Come ulteriore svolta, ci sono alcuni che sperano che saremo così avanti nell’adozione di auto a guida autonoma che non useremo robot indipendenti per guidare le nostre auto.
Ecco la logica.
Se un guidatore di robot è seduto al volante, ciò suggerisce che i controlli di guida convenzionali saranno ancora disponibili all’interno di un’auto. Ciò implica anche che gli esseri umani saranno ancora in grado di guidare un’auto, ogni volta che lo desiderano. Ma la convinzione è che i sistemi di guida AI, sia integrati che come parte di un robot che parla, saranno guidatori migliori e ridurranno l’incidenza della guida in stato di ebbrezza e di altri comportamenti di guida avversi. In breve, una vera auto a guida autonoma non avrà alcun controllo di guida, impedendo a un robot parlante che cammina di guidare (presumibilmente) e precludendo (per fortuna, alcuni affermano) a un essere umano di guidare.
Questo porta a pensare che forse il mondo sarà completamente passato alle vere auto a guida autonoma e sebbene un robot guida che cammina e parla potrebbe diventare fattibile, le cose andranno così avanti che nessuno tornerà indietro nel tempo e reintrodurrà le auto convenzionali.
Sembra un po ‘come un pio desiderio (o forse malinconico).
In un modo o nell’altro, l’obiettivo centrale sembra essere quello di eliminare il guidatore umano dall’equazione.
Questo fa emergere un altro punto cruciale e talvolta trascurato sui robot, vale a dire che possono essere messi in posizioni di sforzo che comportano attività di vita o di morte. È improbabile che il tuo aspirapolvere robotico domestico possa prendere decisioni sulla vita o sulla morte. Nel frattempo, un’auto a guida autonoma, che ha il sistema di guida AI integrato, o anche un driver robot, sarebbe innegabilmente in una posizione di vita o di morte per accertare il destino degli umani.
Ogni giorno che ti metti al volante di un’auto, sei un decisore di vita o di morte, sia che te ne renda conto o riconosca che è così. Con una brutta svolta del volante, puoi rimanere ucciso. Inoltre, puoi finire per uccidere altri, sia svoltando in un’altra macchina o eventualmente colpendo i pedoni. C’è vita o morte che circonda interamente l’atto di guidare.
Potrebbe sembrare piuttosto triste, ma è una dura realtà che deve essere enfatizzata.
Questo è anche il motivo per cui il momento in cui aiuti tuo figlio a imparare a guidare è più di un semplice momento di legame. Nell’istante in cui metti il tuo amato guidatore principiante ai comandi di guida, lo spettro della vita o della morte diventa improvvisamente abbastanza pronunciato. L’autista adolescente di solito percepisce anche questo compito pesante e puoi vedere che alcuni sono riluttanti ad assumersi un fardello così pesante.
Poiché è in gioco la vita o la morte, è ipotizzabile che dovremmo considerare di applicare le tre regole di Asimov nel caso d’uso delle auto a guida autonoma (sembrerebbe inconcepibile non farlo, come suggerito da Vizzini in The Princess Bride ).
Ecco la domanda intrigante di oggi: le tre leggi Asimov dei robot si applicano alle vere auto a guida autonoma basate sull’intelligenza artificiale e, in tal caso, cosa si dovrebbe fare al riguardo?
Spacchettiamo la questione e vediamo.
Comprensione dei livelli delle auto a guida autonoma
Per chiarire, le vere auto a guida autonoma sono quelle che l’IA guida l’auto interamente da sola e non c’è alcuna assistenza umana durante l’attività di guida.
Questi veicoli senza conducente sono considerati di Livello 4 e Livello 5 (vedere la mia spiegazione a questo link qui ), mentre un’auto che richiede un guidatore umano per condividere lo sforzo di guida è solitamente considerata a Livello 2 o Livello 3. Le auto che condividono l’attività di guida sono descritti come semi-autonomi e in genere contengono una varietà di componenti aggiuntivi automatizzati che vengono indicati come ADAS (Advanced Driver-Assistance Systems).
Non c’è ancora una vera auto a guida autonoma al Livello 5, che non sappiamo nemmeno se sarà possibile raggiungere, né quanto tempo ci vorrà per arrivarci.
Nel frattempo, gli sforzi di Livello 4 stanno gradualmente cercando di ottenere un po ‘di trazione sottoponendosi a prove su strade pubbliche molto strette e selettive, anche se c’è controversia sul fatto che questo test debba essere consentito di per sé (siamo tutti cavie di vita o di morte in un esperimento che si svolgono sulle nostre autostrade e strade secondarie, alcuni sostengono, vedere la mia copertura a questo link qui ).
Poiché le auto semi-autonome richiedono un guidatore umano, l’adozione di questi tipi di auto non sarà nettamente diversa dalla guida di veicoli convenzionali, quindi non c’è molto di nuovo di per sé da trattare su questo argomento (anche se, come vedrai in un momento, i punti esposti successivamente sono generalmente applicabili).
Per le auto semiautonome, è importante che il pubblico debba essere avvisato di un aspetto inquietante che si è verificato ultimamente, ovvero che nonostante quei guidatori umani che continuano a postare video di se stessi addormentati al volante di un’auto di Livello 2 o Livello 3 , dobbiamo tutti evitare di farci credere che il conducente possa distogliere la sua attenzione dal compito di guida mentre guida un’auto semi-autonoma.
Sei la parte responsabile delle azioni di guida del veicolo, indipendentemente da quanta automazione potrebbe essere lanciata in un Livello 2 o Livello 3.
Auto a guida autonoma e leggi di Asimov
Per i veri veicoli a guida autonoma di livello 4 e 5, non ci sarà un conducente umano coinvolto nel compito di guida.
Tutti gli occupanti saranno passeggeri.
L’intelligenza artificiale sta guidando
Diamo brevemente un’occhiata a ciascuna delle tre regole di Asimov e vediamo come potrebbero applicarsi alle vere auto a guida autonoma.
In primo luogo, c’è la regola che un robot o un sistema di guida AI (in questo caso) non deve ferire un essere umano, né con un’azione palese né con la sua inerzia.
È un compito arduo quando si è seduti al volante di un’auto.
Ecco perché.
Un’auto a guida autonoma percorre una strada e percepisce acutamente l’ambiente circostante. All’insaputa del sistema di guida AI, un bambino piccolo è in piedi tra due auto parcheggiate, nascosto alla vista e nascosto dalla gamma sensoriale e dalla profondità dell’auto a guida autonoma. L’IA sta guidando al limite di velocità indicato. All’improvviso, il bambino esce in strada.
Alcune persone presumono che un’auto a guida autonoma non incontrerà mai nessuno poiché l’IA ha quelle capacità sensoriali all’avanguardia e non sarà un guidatore ubriaco. Sfortunatamente, nel tipo di scenario che ho appena ipotizzato, l’auto a guida autonoma andrà a sbattere contro quel bambino. Dico questo perché la legge della fisica è fondamentale su qualsiasi nozione onirica di ciò che può fare un sistema di guida AI.
Se il bambino è apparentemente apparso dal nulla e ora si trova a una distanza di 15 piedi dall’auto in movimento e l’auto a guida autonoma sta andando a 30 miglia all’ora, la distanza di arresto è di circa 50-75 piedi, il che significa che il bambino potrebbe essere facilmente colpito.
Non ci sono due modi per farlo.
E questo significherebbe che il sistema di guida AI ha appena violato la prima regola di Asimov.
L’intelligenza artificiale ha ferito un essere umano. Tieni presente che sto stabilendo che l’IA dovrebbe effettivamente richiamare i freni dell’auto a guida autonoma e fare tutto il possibile per evitare lo speronamento del bambino. Tuttavia, il tempo e la distanza dell’IA sono insufficienti per evitare la collisione.
Ora che abbiamo dimostrato l’impossibilità di rispettare sempre la prima regola di Asimov in termini di aderenza rigorosa alla regola, potresti almeno sostenere che il sistema di guida AI ha tentato di obbedire alla regola. Avendo usato i freni, sembrerebbe che il sistema di guida AI abbia cercato di evitare di colpire il bambino, inoltre l’impatto potrebbe essere un po ‘meno grave se il veicolo fosse quasi fermo al momento dell’impatto.
Che dire dell’altra parte della prima regola che afferma che non dovrebbe esserci inazione che potrebbe portare al danno di un essere umano?
Si suppone che se l’auto a guida autonoma non cercasse di fermarsi, questo tipo di inerzia potrebbe rientrare in quel regno, vale a dire ancora una volta non riuscire a osservare la regola. Possiamo aggiungere una svolta a questo. Supponiamo che il sistema di guida AI sia stato in grado di sterzare la macchina, così facendo abbastanza da evitare di colpire il bambino, ma nel frattempo l’auto a guida autonoma va a sbattere contro una sequoia. C’è un passeggero all’interno dell’auto a guida autonoma e questa persona subisce un colpo di frusta a causa dello schianto.
Ok, il bambino per strada è stato salvato, ma il passeggero all’interno dell’auto a guida autonoma ora è ferito. Puoi riflettere se l’azione per salvare il bambino fosse degna rispetto al risultato del ferimento del passeggero. Inoltre, puoi considerare se l’IA non è riuscita a intraprendere le azioni appropriate per evitare lesioni al passeggero. Questo tipo di dilemma etico è spesso rappresentato attraverso il famigerato problema del carrello, un aspetto che ho sostenuto con veemenza è molto applicabile alle auto a guida autonoma e merita molta più attenzione rapita mentre l’avvento delle auto a guida autonoma continua (vedi la mia analisi a questo link qui ).
Tutto sommato, possiamo apparentemente concordare sul fatto che la prima regola della triade di Asimov è un utile obiettivo ambizioso per una vera auto a guida autonoma basata sull’intelligenza artificiale, sebbene la realizzazione di tale aspirazione sarà piuttosto difficile da raggiungere e rimarrà per sempre enigma per la società con cui lottare.
La seconda delle leggi di Asimov è che il robot o in questo caso il sistema di guida dell’IA deve obbedire agli ordini impartitigli da un essere umano, escluse le situazioni in cui un tale comando impartito dall’uomo è in conflitto con la prima regola (cioè, non danneggiare gli esseri umani).
Questo sembra semplice e del tutto piacevole.
Eppure, anche questa regola ha i suoi problemi.
Ho raccontato la storia di un uomo che ha usato un’auto per travolgere un tiratore su un ponte che sparava e uccideva casualmente persone (vedi la mia discussione pubblicata il 1 giugno 2020). Secondo le autorità, l’autista è stato eroico avendo fermato quel tiratore.
Se la seconda legge di Asimov fosse programmata nel sistema di guida dell’IA di un’auto a guida autonoma, e supponiamo che un passeggero ordinasse all’IA di investire un tiratore, presumibilmente l’IA si rifiuterebbe di farlo. Questo è ampiamente ovvio perché l’istruzione danneggerebbe un essere umano. Ma sappiamo che questo era un caso che sembra ignorare la dura e veloce convenzione sempre da obbedire secondo cui non dovresti usare la tua auto per speronare le persone.
Potresti lamentarti del fatto che questa è un’eccezione rara, che sono totalmente d’accordo è assolutamente una stranezza.
Inoltre, se dovessimo aprire la porta per consentire ai passeggeri in auto a guida autonoma di dire all’IA di investire qualcuno, il caos e il caos risultanti sarebbero insostenibili. In breve, c’è certamente un motivo per sostenere che la seconda regola dovrebbe essere applicata, anche se significa che in quelle rare occasioni porterebbe a un danno per inerzia.
Il fatto è che non devi andare così oltre il mondo di tutti i giorni per trovare situazioni che sarebbero prive di senso per un sistema di guida AI obbedire senza dubbio a un passeggero. Un pilota in un’auto a guida autonoma dice all’IA di salire sul marciapiede. Non ci sono pedoni sul marciapiede, quindi nessuno si farà male.
Ti chiedo, il sistema di guida dell’IA dovrebbe obbedire a questo comando pronunciato dall’uomo?
No, l’IA non dovrebbe, e alla fine dovremo far fronte a quali tipi di espressioni dei passeggeri umani verranno presi in considerazione dai sistemi di guida dell’IA e quali comandi verranno rifiutati (vedi la mia analisi del problema di abbaiare dei comandi pubblicata a dicembre 13, 2020).
La terza legge che Asimov ha postulato è che il robot o in questo caso il sistema di guida AI deve tutelare la propria esistenza, a patto che la prima e la seconda regola non vengano revocate.
Un’auto a guida autonoma dovrebbe tentare di preservare la propria esistenza?
In una colonna precedente, ho menzionato che alcuni credono che le auto a guida autonoma avranno circa quattro anni di esistenza, alla fine soccomberanno all’usura in soli quattro anni di guida (vedi il mio intervento il 3 settembre 2019). Ciò sembra sorprendente poiché ci aspettiamo che le auto durino molto più a lungo, ma la differenza con le auto a guida autonoma è che presumibilmente funzioneranno quasi 24 ore su 24, 7 giorni su 7 e guadagneranno molte più miglia rispetto a un’auto convenzionale (un’auto convenzionale rimane inutilizzata dal 95% al 99 % del tempo).
Ok, quindi supponi che un’auto a guida autonoma si stia avvicinando alla sua fine utile. Il veicolo è programmato per guidare da solo al mucchio di spazzatura per il riciclaggio.
È accettabile che il sistema di guida AI decida di evitare di andare al centro di riciclaggio e quindi cercare di preservarne l’esistenza?
Suppongo che se un umano gli dicesse di andare lì, la seconda regola vince e l’auto che si guida da sola deve obbedire. L’intelligenza artificiale potrebbe essere complicata e trovare qualche mezzo subdolo per rispettare la prima e la seconda regola, e tuttavia trovare una base autentica per cercare la sua continua esistenza (lo lascio come esercizio consapevole su cui rimuginare).
Conclusione
In base alla logica di cui sopra, sembrerebbe che le tre regole di Asimov debbano essere prese con le pinze.
I sistemi di guida dell’intelligenza artificiale possono generalmente essere concepiti con quelle regole come parte dell’architettura generale, ma come potrebbe essere abbondantemente evidente da questa discussione, le regole sono aspirazioni e non leggi ferree inconfutabili e immutabili.
Forse il punto più importante di questo allenamento mentale sulle regole di Asimov è far luce su qualcosa a cui pochi stanno dando la dovuta diligenza. Nel caso delle vere auto a guida autonoma basate sull’intelligenza artificiale, c’è molto di più da ideare e distribuire questi veicoli autonomi rispetto ai semplici aspetti meccanici della guida di un’auto.
Guidare un’auto è un enorme dilemma etico che gli esseri umani spesso danno per scontato. Dobbiamo chiarire la realtà di come i sistemi di guida dell’IA prenderanno decisioni di vita o di morte. Questo deve essere fatto prima di iniziare a inondare le nostre strade e strade secondarie con auto a guida autonoma.
Asimov lo disse meglio quando si lamentò di un’osservazione che vale ancora oggi, circa ottanta anni dopo averci implorato con questo: “L’aspetto più triste della vita in questo momento è che la scienza raccoglie la conoscenza più velocemente di quanto la società raccoglie la saggezza”.
Parole vere che vale la pena rivisitare.