L’IA è una minaccia esistenziale?

Quando si discute di Intelligenza Artificiale (AI), un dibattito comune è se l’IA sia una minaccia esistenziale. La risposta richiede la comprensione della tecnologia alla base del Machine Learning (ML) e il riconoscimento che gli esseri umani hanno la tendenza ad antropomorfizzare. Esploreremo due diversi tipi di AI, Artificial Narrow Intelligence (ANI) che è ora disponibile ed è motivo di preoccupazione, e la minaccia più comunemente associata alle interpretazioni apocalittiche di AI che è Artificial General Intelligence (AGI).

Minacce di intelligenza ristretta artificiale
Per capire cos’è ANI è sufficiente capire che ogni singola applicazione AI attualmente disponibile è una forma di ANI. Questi sono campi dell’IA che hanno un campo ristretto di specialità, ad esempio i veicoli autonomi usano l’IA che è progettata con l’unico scopo di spostare un veicolo dal punto A al punto B. Un altro tipo di ANI potrebbe essere un programma di scacchi ottimizzato per giocare scacchi, e anche se il programma di scacchi migliora continuamente se stesso utilizzando l’ apprendimento per rinforzo , il programma di scacchi non sarà mai in grado di utilizzare un veicolo autonomo.

Concentrandosi su qualunque operazione di cui è responsabile, i sistemi ANI non sono in grado di utilizzare l’apprendimento generalizzato per conquistare il mondo. Questa è la buona notizia; la cattiva notizia è che, con la sua dipendenza da un operatore umano, il sistema di intelligenza artificiale è suscettibile a dati distorti, errori umani o, peggio ancora, un operatore umano canaglia.

Sorveglianza AI
Potrebbe non esserci pericolo maggiore per l’umanità degli umani che usano l’IA per invadere la privacy e, in alcuni casi, l’uso della sorveglianza dell’IA per impedire completamente alle persone di muoversi liberamente. La Cina, la Russia e altre nazioni hanno approvato regolamenti durante COVID-19 per consentire loro di monitorare e controllare il movimento delle rispettive popolazioni. Queste sono leggi che una volta in vigore, sono difficili da rimuovere, specialmente nelle società che caratterizzano leader autocratici.

In Cina, le telecamere sono posizionate fuori dalle case delle persone e, in alcuni casi, all’interno della casa della persona. Ogni volta che un membro della famiglia se ne va, un’IA controlla l’ora di arrivo e di partenza e, se necessario, allerta le autorità. Come se ciò non bastasse, con l’assistenza della tecnologia di riconoscimento facciale, la Cina è in grado di tracciare il movimento di ogni persona ogni volta che viene identificata da una telecamera. Ciò offre potere assoluto all’entità che controlla l’IA e ricorso assolutamente zero ai suoi cittadini.

Perché questo scenario è pericoloso, è che i governi corrotti possono monitorare attentamente i movimenti di giornalisti, oppositori politici o chiunque osi mettere in discussione l’autorità del governo. È facile capire come giornalisti e cittadini sarebbero cauti nel criticare i governi quando ogni movimento viene monitorato.

Fortunatamente ci sono molte città che stanno combattendo per impedire che il riconoscimento facciale si infiltri nelle loro città. In particolare, Portland, Oregon, ha recentemente approvato una legge che impedisce l’uso inutile del riconoscimento facciale in città. Sebbene questi cambiamenti nella regolamentazione possano essere passati inosservati al grande pubblico, in futuro questi regolamenti potrebbero fare la differenza tra le città che offrono un certo tipo di autonomia e libertà e le città che si sentono oppressive.

Armi e droni autonomi
Oltre 4500 ricercatori di intelligenza artificiale hanno chiesto il divieto delle armi autonome e hanno creato il sito Web Ban Lethal Autonomous Weapons . Il gruppo ha molte importanti organizzazioni non profit come firmatari come Human Rights Watch , Amnesty International e The Future of Life Institute, che di per sé ha un comitato consultivo scientifico stellare tra cui Elon Musk, Nick Bostrom e Stuart Russell.

Prima di continuare condividerò questa citazione da The Future of Life Institute che spiega meglio perché c’è un chiaro motivo di preoccupazione: “In contrasto con le armi semiautonome che richiedono la supervisione umana per garantire che ogni bersaglio sia convalidato come eticamente e legalmente legittimo, come armi completamente autonome selezionano e ingaggiano bersagli senza intervento umano, rappresentando la completa automazione del danno letale. “

Attualmente, le bombe intelligenti vengono schierate con un bersaglio selezionato da un umano e la bomba utilizza quindi l’IA per tracciare un percorso e per atterrare sul suo bersaglio. Il problema è cosa succede quando decidiamo di rimuovere completamente l’umano dall’equazione?

Quando un’IA sceglie ciò di cui gli esseri umani hanno bisogno di prendere di mira, così come il tipo di danno collaterale che è ritenuto accettabile, potremmo aver superato un punto di non ritorno. Questo è il motivo per cui così tanti ricercatori di intelligenza artificiale si oppongono alla ricerca di qualsiasi cosa sia lontanamente correlata alle armi autonome.

Ci sono molti problemi con il semplice tentativo di bloccare la ricerca di armi autonome. Il primo problema è che anche se nazioni avanzate come il Canada, gli Stati Uniti e la maggior parte dell’Europa scelgono di accettare il divieto, ciò non significa che nazioni canaglia come Cina, Corea del Nord, Iran e Russia giocheranno. Il secondo e più grande problema è che la ricerca e le applicazioni di intelligenza artificiale progettate per l’uso in un campo possono essere utilizzate in un campo completamente indipendente.

Ad esempio, la visione artificiale migliora continuamente ed è importante per lo sviluppo di veicoli autonomi, medicina di precisione e altri importanti casi d’uso. È anche di fondamentale importanza per droni regolari o droni che potrebbero essere modificati per diventare autonomi. Un potenziale caso d’uso della tecnologia avanzata dei droni è lo sviluppo di droni in grado di monitorare e combattere gli incendi boschivi. Ciò rimuoverebbe completamente i vigili del fuoco dal modo in cui danneggia. Per fare ciò, dovresti costruire droni che siano in grado di volare in modo pericoloso, di navigare con visibilità bassa o nulla e siano in grado di far cadere l’acqua con una precisione impeccabile. Non è molto lontano quindi utilizzare questa tecnologia identica in un drone autonomo progettato per colpire selettivamente gli esseri umani.

È una situazione pericolosa e in questo momento nessuno comprende appieno le implicazioni dell’avanzamento o del tentativo di bloccare lo sviluppo di armi autonome. Tuttavia è qualcosa su cui dobbiamo tenere gli occhi aperti, migliorare la protezione degli informatori potrebbe consentire a coloro che sono sul campo di denunciare gli abusi.

Operatore canaglia a parte, cosa succede se il pregiudizio dell’IA si insinua nella tecnologia AI progettata per essere un’arma autonoma?

Bias AI
Una delle minacce più non segnalate dell’IA è il bias dell’IA. Questo è semplice da capire poiché la maggior parte non è intenzionale. Il pregiudizio dell’IA si insinua quando un’IA rivede i dati che gli vengono forniti dagli esseri umani, utilizzando il riconoscimento di modelli dai dati che sono stati forniti all’IA, l’IA raggiunge erroneamente conclusioni che potrebbero avere ripercussioni negative sulla società. Ad esempio, un’intelligenza artificiale alimentata dalla letteratura del secolo scorso su come identificare il personale medico può giungere alla conclusione sessista indesiderata che le donne sono sempre infermiere e gli uomini sono sempre medici .

Uno scenario più pericoloso è quando l’ IA utilizzata per condannare i criminali condannati è incline a dare pene detentive più lunghe alle minoranze. Gli algoritmi di valutazione del rischio criminale dell’IA stanno semplicemente studiando i modelli nei dati che sono stati inseriti nel sistema. Questi dati indicano che storicamente alcune minoranze hanno maggiori probabilità di recidivare, anche quando ciò è dovuto a set di dati scadenti che possono essere influenzati dalla profilazione razziale della polizia. L’IA prevenuta rafforza quindi le politiche umane negative. Questo è il motivo per cui l’IA dovrebbe essere una linea guida, mai un giudice e una giuria.

Tornando alle armi autonome, se disponiamo di un’IA che è prevenuta nei confronti di determinati gruppi etnici, potrebbe scegliere di prendere di mira determinati individui sulla base di dati distorti e potrebbe arrivare a garantire che qualsiasi tipo di danno collaterale influisca su determinati dati demografici meno di altri . Ad esempio, quando prende di mira un terrorista, prima di attaccare potrebbe aspettare che il terrorista sia circondato da coloro che seguono la fede musulmana invece che dai cristiani.

Fortunatamente, è stato dimostrato che l’IA progettata con team diversi è meno incline a pregiudizi. Questo è un motivo sufficiente per le aziende per tentare, quando possibile, di assumere un team diversificato e completo.

Minacce di intelligenza artificiale generale
Va affermato che mentre l’IA sta avanzando a un ritmo esponenziale, non abbiamo ancora raggiunto l’AGI. Quando arriveremo, AGI è in discussione e ognuno ha una risposta diversa per quanto riguarda la tempistica. Mi associo personalmente alle opinioni di Ray Kurzweil, inventore, futurista e autore di “The Singularity is Near”, che crede che avremo raggiunto l’AGI entro il 2029 .

AGI sarà la tecnologia più rivoluzionaria al mondo. Entro poche settimane dal raggiungimento dell’intelligenza a livello umano, l’IA raggiungerà la superintelligenza definita come intelligenza che supera di gran lunga quella di un essere umano.

Con questo livello di intelligenza, un AGI potrebbe assorbire rapidamente tutta la conoscenza umana e utilizzare il riconoscimento di modelli per identificare i biomarcatori che causano problemi di salute e quindi trattare tali condizioni utilizzando la scienza dei dati . Potrebbe creare nanobot che entrano nel flusso sanguigno per colpire le cellule tumorali o altri vettori di attacco. L’elenco delle realizzazioni di cui è capace un’AGI è infinito. In precedenza abbiamo esplorato alcuni dei vantaggi di AGI .

Il problema è che gli esseri umani potrebbero non essere più in grado di controllare l’IA. Elon Musk lo descrive in questo modo: ” Con l’intelligenza artificiale stiamo evocando il demone “. Riusciremo a controllare questo demone è la domanda?

Raggiungere l’AGI potrebbe essere semplicemente impossibile fino a quando un’IA non lascia un’ambientazione di simulazione per interagire veramente nel nostro mondo aperto. La consapevolezza di sé non può essere progettata, si ritiene invece che una coscienza emergente possa evolversi quando un’IA ha un corpo robotico con più flussi di input. Questi input possono includere stimolazione tattile, riconoscimento vocale con una migliore comprensione del linguaggio naturale e visione artificiale aumentata.

L’intelligenza artificiale avanzata può essere programmata con motivazioni altruistiche e desidera salvare il pianeta. Sfortunatamente, l’IA può utilizzare la scienza dei dati , o anche un albero decisionale per arrivare a una logica errata indesiderata, come valutare che è necessario sterilizzare gli esseri umani o eliminare parte della popolazione umana per controllare la sovrappopolazione umana.

Quando si costruisce un’intelligenza artificiale con intelligenza che supererà di gran lunga quella di un essere umano, è necessario studiare attentamente e riflettere. Ci sono stati molti scenari da incubo che sono stati esplorati.

Il professor Nick Bostrom nell’argomento Paperclip Maximizer ha sostenuto che un AGI configurato in modo errato se istruito a produrre graffette consumerebbe semplicemente tutte le risorse della terra per produrre queste graffette. Anche se questo sembra un po ‘inverosimile, un punto di vista più pragmatico è che un AGI potrebbe essere controllato da uno stato canaglia o da una società con una scarsa etica. Questa entità potrebbe addestrare l’AGI a massimizzare i profitti, e in questo caso con una programmazione scadente e zero rimorsi potrebbe scegliere di mandare in bancarotta i concorrenti, distruggere le catene di approvvigionamento, hackerare il mercato azionario, liquidare conti bancari o attaccare gli oppositori politici.

Questo è quando dobbiamo ricordare che gli esseri umani tendono ad antropomorfizzare. Non possiamo dare all’IA emozioni, desideri o desideri di tipo umano. Sebbene ci siano esseri umani diabolici che uccidono per piacere, non c’è motivo di credere che un’IA sarebbe suscettibile a questo tipo di comportamento. È inconcepibile che gli esseri umani considerino il mondo anche solo come un’IA.

Invece quello che dobbiamo fare è insegnare all’IA a essere sempre deferente verso un essere umano. L’intelligenza artificiale dovrebbe sempre avere un umano che conferma eventuali modifiche alle impostazioni e dovrebbe sempre esserci un meccanismo di sicurezza. Poi di nuovo, è stato sostenuto che l’IA si replicherà semplicemente nel cloud e, quando ci rendiamo conto che è consapevole di sé, potrebbe essere troppo tardi.

Questo è il motivo per cui è così importante rendere open source quanta più intelligenza artificiale possibile e avere discussioni razionali su questi problemi.

Sommario
Ci sono molte sfide per l’IA, fortunatamente abbiamo ancora molti anni per capire collettivamente il percorso futuro che vogliamo che AGI intraprenda. A breve termine dovremmo concentrarci sulla creazione di una forza lavoro di IA diversificata, che includa quante più donne quanti uomini e quanti più gruppi etnici con punti di vista diversi possibile.

Dovremmo anche creare protezioni per gli informatori per i ricercatori che stanno lavorando sull’intelligenza artificiale e dovremmo approvare leggi e regolamenti che impediscano l’abuso diffuso della sorveglianza statale o aziendale. Gli esseri umani hanno un’opportunità unica nella vita di migliorare la condizione umana con l’assistenza dell’IA, dobbiamo solo assicurarci di creare con cura un quadro sociale che abiliti al meglio gli aspetti positivi, mitigando gli aspetti negativi che includono le minacce esistenziali.

Di ihal