Perché è pericoloso per l’IA regolarsi

Con l’evolversi dell’intelligenza artificiale (AI), molti dei rischi associati alla tecnologia sono tutti troppo umani. Per esempio, alcuni scrittori temono che le armi autonome possano finire per essere macchine da guerra di genocidio , ma basta dare un’occhiata alla storia per comprendere che gli umani hanno commesso crimini di guerra fin dagli albori della civiltà.

Allo stesso modo, come è intelligenza artificiale che esibisce pregiudizi razziali o di genere (come spiegato in Scienze rivista) o prende le decisioni finanziarie errate è così diverso da quello che gli esseri umani già fanno da soli?

Questi problemi troppo umani possono confondere le acque quando le aziende analizzano i rischi, i benefici e le responsabilità associate all’IA. Così, t settore ech gruppi di pressione come l’Information Technology Industry Council (ITI) sostengono che l’AI non dovrebbe essere sovraregolamento e sostengono che le nuove leggi, le tasse e le regole “possono ostacolare inavvertitamente o inutilmente lo sviluppo responsabile e l’uso di intelligenza artificiale.”

Perché l’intelligenza artificiale dovrebbe essere regolata … ma non dall’IA

In un mondo ideale, l’ITI potrebbe avere ragione. Gli sviluppatori potrebbero concepire intelligentemente l’intelligenza artificiale in grado di autoregolarsi. Tuttavia, attualmente non viviamo in un mondo ideale. Il mondo in cui viviamo, ad esempio, è già quello in cui i robot possono uccidere , i chatbot creano i loro modi di comunicare e le smart TV sono in grado di spiare i loro proprietari .

Uno dei pensatori più influenti su come gestire l’intelligenza artificiale è Isaac Asimov, le cui tre leggi della robotica affermano:


“1. Un robot non può ferire un essere umano o, attraverso l’inazione, permettere a un essere umano di venire a fare del male.

  1. Un robot deve obbedire agli ordini che gli vengono dati da esseri umani, tranne nel caso in cui tali ordini siano in conflitto con la Prima Legge.
  2. Un robot deve proteggere la propria esistenza finché tale protezione non è in conflitto con la prima o la seconda legge. “

Nel più ampio dei tratti, queste leggi hanno un senso. Tuttavia, ciò che accade quando AI incontra qualcosa di simile al problema del carrello : , dove sia l’azione e inazione causerà danni agli esseri umani?

Problema del carrello

Considera una versione del problema del carrello:

Un carrello in fuga sta scendendo lungo i binari verso cinque lavoratori che saranno tutti uccisi se il carrello procederà sul suo corso attuale. Adam è in piedi accanto a un grande interruttore che può deviare il carrello su una traccia diversa. L’unico modo per salvare la vita dei cinque lavoratori è di deviare il carrello su un’altra traccia che ha solo un lavoratore su di esso. Se Adam devia il carrello sull’altra pista, questo operaio morirà, ma gli altri cinque lavoratori saranno salvati.

La matrice morale che influenza il modo in cui le persone votano
Adamo deve capovolgere l’interruttore, uccidere il lavoratore, ma salvare gli altri cinque? Scrivi la tua risposta.

Ora considera una versione leggermente diversa:

Un carrello in fuga sta scendendo lungo i binari verso cinque lavoratori che saranno tutti uccisi se il carrello procederà sul suo corso attuale. Adam è su una passerella sopra i binari, tra il carrello in avvicinamento e i cinque operai. Accanto a lui su questa passerella c’è un estraneo che sembra essere molto grande. L’unico modo per salvare la vita dei cinque lavoratori è di spingere questo estraneo fuori dalla passerella e sulle tracce sottostanti dove il suo grande corpo fermerà il carrello. Lo straniero morirà se Adamo lo fa, ma i cinque lavoratori saranno salvati.

Adamo dovrebbe spingere lo straniero fuori dalla passerella, ucciderlo ma salvare i cinque lavoratori?

AI rischia nella vita di tutti i giorni

I dilemmi come il problema del carrello non sono solo esperimenti pensati. Considera quanto le autocrazie straniere ostili possano attaccare i processi democratici tramite i social media robot (come l’assalto della Russia alle elezioni del 2016 ) e minare le istituzioni governative (il virus NotPetya , che ha sconvolto le infrastrutture dell’Ucraina). Oppure pensa alla natura potenziale delle armi autonome (paywall).

Se l’IA avesse deciso di depersonalizzare le regole di ingaggio che limitano le vittime civili e diventassero invece Genghis-Khan nelle sue tattiche di guerra totali, chi la fermerebbe se l’algoritmo si basasse su un apprendimento rinforzato e gli umani non fossero più nel ciclo? Se ciò fosse possibile, potrebbe portare a un costoso e catastrofico processo di apprendimento automatico.

Un altro esempio rischioso è lo sviluppo di nuovi prodotti. Se la tua azienda prevede di vendere in mercati diversi, dovrai rispettare le leggi in diverse giurisdizioni.

Gli esperti sono stati addestrati per questi scenari. L’AI, d’altra parte, potrebbe facilmente operare su dati irrilevanti, politiche scadute o priorità disallineate. Di conseguenza, la tua azienda potrebbe assumersi responsabilità che non sa nemmeno di avere.

Dovrei fare una pausa per ammettere che gli umani potrebbero commettere quegli stessi errori, e lo fanno sempre. Le differenze principali sono che:

  1. Quando un esperto commette un errore, l’esperto umano ne è responsabile.
  2. La possibilità che l’algoritmo basato sull’intelligenza artificiale e gli individui esperti commettano lo stesso errore sulla stessa decisione è probabilmente significativamente più basso rispetto a quando operano da soli.

Quadro normativo emergente

Il settore finanziario in cui opera la mia azienda ha probabilmente preso il comando delle discussioni sulla politica dell’IA, con il Dipartimento del Tesoro degli Stati Uniti , l’ Autorità per l’industria finanziaria (FINRA) e i rappresentanti della Banca mondiale che offrono orientamento o interesse.

A causa della novità della tecnologia e del ritmo dei cambiamenti, tuttavia, i progressi si sono fatti lenti e ad hoc, con molti organismi di regolamentazione che apparentemente hanno adottato un approccio attendista. Questa non è necessariamente la cosa sbagliata da fare. Le autorità di regolamentazione, correttamente, possono preoccuparsi di soffocare l’innovazione, ma i leader aziendali e i fornitori di soluzioni abilitati all’Intelligenza potrebbero avere bisogno di una guida sulle migliori pratiche, sui rischi emergenti e su come mantenere la conformità nei loro settori pur abbracciando la tecnologia moderna.

Il Tesoro ha toccato quattro aree principali per le considerazioni politiche: concorrenza nel mercato, questioni legali e occupazionali, privacy dei dati e sfide normative legate alla trasparenza, alla revisione contabile e alla responsabilità.

Tuttavia, il Tesoro ha sostenuto che i “benefici significativi” dell’IA non dovrebbero essere indeboliti da ” oneri inutili o ostacoli all’uso dell’IA e dell’apprendimento automatico”. “In altre parole, credo che il Tesoro si accontenti di lasciare che le aziende si regolino da sole – per ora. Di conseguenza, le aziende e i venditori potrebbero essere lasciati in gran parte da soli per affrontare le sfide normative e ricevere indicazioni solo da agenzie come l’ Ufficio esecutivo del Presidente .

A partire da trasparenza, auditività e responsabilità

Credo che un po ‘di guida sia meglio di niente, tuttavia, e le sfide normative evidenziate dalla relazione del Tesoro nel suo rapporto forniscono un buon punto di partenza per le imprese che sperano di limitare i rischi futuri mentre adottano l’intelligenza artificiale. Andando avanti, credo che i business leader dovrebbero almeno essere in grado di mostrare come l’intelligenza artificiale è utilizzata dagli esperti per prendere decisioni critiche (trasparenza), dimostrando allo stesso tempo che sono in grado di ricominciare dalla decisione finale attraverso i processi, le tecnologie, e dati che sono stati utilizzati per arrivare a tali decisioni (auditabilità).

Infine, cosa succede se una soluzione di AI finanziaria configurata in modo errato decide che tutti i prestiti sono prestiti a rischio e interrompono il prestito interamente? Allo stesso modo, l’IA della sicurezza informatica potrebbe facilmente determinare che la tua organizzazione è a rischio a causa di politiche di autenticazione deboli, ma se deciderà che il rischio è così grande che l’autenticazione multifattoriale o la biometria devono essere applicate per tutti gli utenti ora – bloccando i dipendenti e rettificando il tuo affari in arresto (responsabilità)?

Questo è il motivo per cui credo sia importante iniziare oggi a pianificare un futuro potenziato dall’intelligenza artificiale. Mentre pianifichi le tue soluzioni, assicurati di tenere i tuoi esperti in loop nei punti chiave di inflessione. Se hai esperti che si affidano a decisioni business-critical e AI, ottieni il meglio di entrambi i mondi (macchine esperte e umani esperti) in un modo auto-regolato che sarà probabilmente in linea con le imminenti normative AI di buon senso.

Di ihal