Yuval Noah Harari e Fei-Fei Li sull’intelligenza artificiale: quattro domande che riguardano tutti noi

Più domande che risposte sono state generate durante una recente conversazione alla Stanford University tra una coppia di giganti dell’Intelligenza Artificiale -  Yuval Noah Harari e Fei-Fei Li . Nicholas Thompson , redattore capo di WIRED, ha moderato la conversazione di 90 minuti nel ricco auditorium del Memorial, pieno della sua capacità di 1705 posti.

Lo scopo era di discutere di come l’IA influenzerebbe il nostro futuro.

Harari, professore di storia all’Università Ebraica di Gerusalemme e due volte vincitore del Premio Polonsky per la creatività e l’originalità, è l’autore dei bestseller internazionali “Sapiens: A Brief History of Humankind” e “Homo Deus: A Brief History of Domani.”

Li è un rinomato ricercatore di intelligenza artificiale, ingegnere e professore di informatica. Uno dei più prolifici accademici dell’Intelligenza Artificiale di oggi, il suo lavoro nell’apprendimento approfondito e nella visione artificiale è utilizzato da aziende e gruppi di ricerca in tutto il mondo. È conosciuta soprattutto per il suo ruolo nella creazione di ImageNet , un set di dati con annotazione manuale di 14 milioni di immagini, ampiamente utilizzato nelle applicazioni di visione artificiale .

Hanno toccato alcuni degli argomenti più importanti su IA e tecnologia, incluso se possiamo ancora credere nell’agire umano; come appare la democrazia nell’era dell’IA; e se l’IA alla fine inciderà o migliorerà l’umanità.

Piuttosto che spingerci verso punti di parlare stagnanti, Li e Harari ci hanno sfidato a contemplare molte importanti questioni che caratterizzano le conseguenze della tecnologia di Intelligenza Artificiale sugli individui, inclusa la libertà e la scelta, e l’impatto dell’IA sui sistemi legali, economici e politici del nostro mondo.

Queste quattro domande pertinenti tentano di aiutare a districare l’impatto dell’IA sull’individuo:

Ripensare il libero arbitrio: se non puoi fidarti del cliente, se non puoi fidarti dell’elettore, se non ti puoi fidare dei tuoi sentimenti, di chi ti fidi? – Yuval Noah Harari
Amore e limiti dell’IA: l’ amore è hackerabile? – Fei-Fei Li
Autoconsapevolezza dell’outsourcing per l’intelligenza artificiale: cosa significa vivere in un mondo in cui si impara qualcosa di così importante su di sé da un algoritmo? – Yuval Noah Harari
Umani al centro dell’IA: possiamo riformulare l’educazione, la ricerca e il dialogo dell’IA e della tecnologia in generale in un modo incentrato sull’uomo? – Fei-Fei Li
Come molti che l’hanno visto, sono uscito dal discorso con un senso di urgenza. Queste sono domande toccanti a cui i professionisti dell’IA, i politici e il pubblico dovrebbero riflettere. Tutti sono una parte consequenziale del dibattito sull’IA.

Ma dobbiamo agire rapidamente. “Gli ingegneri non aspetteranno. E anche se gli ingegneri sono disposti ad aspettare, gli investitori dietro gli ingegneri non aspetteranno. Quindi, significa che non abbiamo molto tempo “, ha avvertito Harari.

Concordato.

Ripensare il libero arbitrio

“Se non puoi fidarti del cliente, se non puoi fidarti dell’elettore, se non puoi fidarti dei tuoi sentimenti, di chi ti fidi?” – Yuval Noah Harari
La discussione è entrata nel profondo e difficile argomento del libero arbitrio e dell’agenzia, tralasciando completamente le superficialità.

Un argomento che mette in discussione la validità del libero arbitrio sembra a prima vista un tentativo estraneo, teorico – qualcosa che è al di fuori della portata della disciplina ingegneristica. In effetti, molte delle sfide discusse ritornano su argomenti discussi dai filosofi per millenni.

Solo che questa volta c’è un punto di vista completamente nuovo: la tecnologia è avanzata al punto in cui molte delle nostre convinzioni tenute da vicino vengono messe alla prova, come osserva Harari, “non da idee filosofiche, ma da tecnologie pratiche”.

Harari ha criticato le nozioni centrali del libero arbitrio e dell’agenzia individuale per la maggior parte di un decennio.

Non è solo. Numerosi esperimenti neuropsicologici hanno condotto un nuovo assalto al libero arbitrio, grazie ai progressi nella tecnologia disponibile per misurare l’attività neurale.

Ciò ha portato molti dei migliori neuroscienziati a dubitare della libertà delle nostre decisioni.

“Stiamo solo elaborando le informazioni all’interno di una cartografia della nostra mente che dà origine meccanicamente al nostro comportamento. Quindi le decisioni che pensiamo di decidere e di prendere consapevolmente, in realtà è solo un’illusione che può essere ridotta a ciò che il nostro cervello ci sta dicendo di fare. “-  Hannah Crichlow , importante neuroscienziata di Princeton e autrice di The Science of Fate
Ma mentre la scienza sta ancora maturando, le conseguenze del nostro libero arbitrio manipolato – Harari ha definito questo “Hacking Humans” – rappresentano un grande rischio all’interno della nostra società.

Un’organizzazione può tentare di “creare un algoritmo che mi capisca meglio di quanto comprenda me stesso, e quindi può manipolarmi, migliorarmi o sostituirmi”.

Sarà nostra sfida decidere non solo quali dovrebbero essere queste manipolazioni, miglioramenti o sostituzioni, ma anche chi dovrebbe prendere le decisioni su di loro in primo luogo.

Potremmo chiederci come vogliamo fare delle scelte sulle possibilità di miglioramento umano.

“Chi decide cos’è un buon miglioramento e cos’è un brutto miglioramento? Quindi, come decidi cosa migliorare se, e questa è una domanda etica e filosofica molto profonda – ancora una volta che i filosofi hanno discusso per migliaia di anni – [non abbiamo una risposta alla domanda] ‘che cosa è buono?’ Quali sono le buone qualità che dobbiamo migliorare? “Ha chiesto Harari.

Per molti di noi è naturale “ricorrere alle tradizionali idee umanistiche” che danno priorità alla scelta personale e alla libertà. Tuttavia, ha ammonito: “Nessuno di questi funziona quando c’è una tecnologia per hackerare gli esseri umani su larga scala”.

Se l’idea stessa dell’agire umano e del libero arbitrio sono in discussione, diventa molto difficile determinare come decidere quale tecnologia dovrebbe essere autorizzata a fare. Ciò riguarda anche ogni area della nostra vita: cosa scegliamo di fare, cosa potremmo comprare, dove potremmo andare e come potremmo votare. Non è chiaro chi dovrebbe prendere decisioni in merito alla portata della tecnologia.

Questa ambiguità ci lascia faccia a faccia con un problema significativo, grazie al co-sviluppo della tecnologia in biotecnologia (B), potenza di calcolo (C) e analisi dei dati (D). Questi tre oggetti, secondo Harari, possono già essere usati per Hack Humans (HH).

Per gli intellettuali in mezzo a noi lo riassume come B * C * D = HH.

Con la tecnologia moderna, Hacking Humans può diventare una possibilità molto reale.

“Questo è il momento per aprire il dialogo, per aprire la ricerca su questi temi”, ha aggiunto Li.

Se la manipolazione è presente, come sono ancora legittimi i sistemi di governo, commercio e libertà personale?

Amore e limiti dell’intelligenza artificiale

“L’amore è hackerabile?” – Fei-Fei Li
Se gli umani possono essere “hackerati” e manipolati il ​​nostro comportamento e le nostre credenze, qual è il limite di questo controllo sottile?

Possiamo accettare che possiamo essere manipolati in piccoli sforzi – Chi non ha improvvisamente voglia di una focaccina alla cannella quando entra in una panetteria dove sono appena stati fatti? – ma sicuramente ci devono essere dei limiti ai modi in cui il nostro comportamento può essere controllato.

A questo punto, nessuno sembra sapere con certezza quali potrebbero essere questi limiti di manipolazione.

Tuttavia, le tattiche di manipolazione sono certamente conosciute. Criminali e truffatori che li usano sono stati in egual misura venerati per la loro audacia e insultati per la loro predilezza attraverso i media, e le loro storie raccontate nel cinema, nella letteratura e in televisione.

Collettivamente, non crediamo alla nostra personale suscettibilità alla manipolazione. Piuttosto, assumiamo che quelli che sono stati manipolati sono i pochi stupidi. “Le persone più facili da manipolare sono le persone che credono nel libero arbitrio, perché pensano di non poter essere manipolate”, ha concluso Harari.

L’amore armato come potenziale di manipolazione non è solo possibile, ma ben documentato. Questo tema è coerente con la lunga storia delle truffe romantiche; molti di noi hanno sentito parlare dell ‘”amante della lunga distanza che ha bisogno di un afflusso improvviso di denaro per qualche piccola emergenza”. Le truffe romantiche sono le più “di successo” di tutti i tipi che costano agli americani 143 milioni di dollari l’anno scorso .

La psicologa Columbia Maria Konnikova e autrice di The Confidence Game, ci ricorda che la manipolazione “è compiuta, prima di tutto, attraverso l’emozione.” Questo ci lascia in uno stato vulnerabile poiché “sentire, almeno nel momento, prende il sopravvento.”

Dopo tutto, il sistema di manipolazione – Intelligenza Artificiale o non – non deve sperimentare l’amore in cambio di manipolare la capacità umana di connessione e intimità con un’altra. “Manipolare l’amore non è la stessa cosa che sentirlo realmente”, ha spiegato Harari.

Senza sminuire l’importanza dell’amore umano, la componente biologica e neurochimica è stata ben studiata.

Data la sempre maggiore quantità di informazioni che ciascuno di noi fornisce, la comprensione più profonda che stiamo ottenendo sulla nostra biologia, unita ai costi inferiori per analizzare grandi quantità di dati, non può essere ignorata la possibilità di truffe anche più costose di questo tipo. Queste truffe giocano sulle emozioni molto reali e molto umane di solitudine, isolamento e desiderio di connessione con un altro.

Siamo tutti suscettibili a questo tipo di manipolazione. “Vogliamo credere in quello che ci stanno dicendo”, ci ricorda Konnikova.

Pochi hanno una visione definitiva sui limiti di ciò che potrebbe essere possibile con i progressi della scienza e della tecnologia dei dati. Li è ottimista. “Voglio essere sicuro che riconosciamo che siamo molto, molto, molto lontani da quello. Questa tecnologia è ancora molto nascente. “Tuttavia, la posta in gioco sta diventando sempre più alta, e se questo è il caso, per quanto tempo rimarrà tale?

Come ha commentato Li: “Penso che tu porti davvero l’urgenza e l’importanza e l’entità di questa potenziale crisi. Ma penso che, di fronte a ciò, dobbiamo agire “.

Autoconsapevolezza di Outsourcing per l’intelligenza artificiale

“Che cosa significa vivere in un mondo in cui impari qualcosa di così importante in te stesso da un algoritmo?” – Yuval Noah Harari
Per millenni gli umani hanno esternalizzato alcune delle cose che fanno i nostri cervelli. La scrittura ci consente di tenere registri precisi anziché affidarci alla nostra memoria. La navigazione si è spostata dalla mitologia e dalle carte stellari alle mappe e al GPS.

Ma con l’intelligenza artificiale abbiamo un’opportunità radicale: cosa succederebbe se la consapevolezza di sé fosse una delle cose che l’uomo esternalizzerà alla tecnologia?

Harari ha raccontato una storia personale del suo viaggio di scoperta di sé, confessando di non essere consapevole di essere gay fino a quando non aveva più o meno vent’anni. Questa rivelazione ha suscitato un momento stimolante che ha mostrato quanto lottiamo tutti per vedere i nostri punti ciechi. “Mi sono reso conto che ero gay quando avevo 21 anni. E guardo indietro al tempo e io non sapevo 15, 17 e avrebbe dovuto essere così ovvio.”

Harari ha continuato: “Ora nell’IA, anche un’IA molto stupida oggi, non mancherà”.

Questo apre una nuova possibilità molto interessante: gli algoritmi di Might sanno cose su di noi che non conosciamo ancora?

Nella storia dell’IA, questo è stato un pensiero allettante per decenni.

“Sto mettendo i miei soldi su una scommessa che dice che costruiamo robot per le stesse ragioni per cui facciamo altri tipi di scienza e arte, per l’immensa soddisfazione di sapere qualcosa di significativo su noi stessi che non sapevamo prima, di avere i nostri sospetti e congetture su noi stessi confermate o devastate – semplicemente messo, di vedere noi stessi in un modo nuovo. “-  Pamela McCorduck , celebre storica di IA e autrice di Macchine che pensano
Ancora oggi, usando i dati che forniamo, è possibile diagnosticare una miriade di condizioni diverse , dalla depressione al cancro, prima e con un impatto significativo sulle nostre vite.

Al di là della nostra salute fisica e mentale, è provocatorio chiedersi che altro potrebbe sbloccare l’analisi su larga scala come risultato dei dati che ora forniamo. Dopotutto, ci sono aspetti dell’esperienza umana che sono immutabili nonostante la cultura, la generazione e la posizione.

Man mano che i metodi di analisi diventano più avanzati e aumentano i dati disponibili, quali esperienze potremmo apprendere che condividiamo con i nostri amici, i nostri vicini, gente che vive in tutto il mondo e la cui vita non assomiglia quasi alla nostra?

Rimangono tuttavia due sfide.

C’è un pericolo nel dare un algoritmo, anche molto intelligente, all’autorità di fornirci informazioni su noi stessi. Soprattutto se rende difficile la discussione e la convalida.

“Una volta che hai vestito qualcosa come un algoritmo o un po ‘di intelligenza artificiale, può assumere questa aria di autorità che rende davvero difficile discutere.” -  Hannah Fry , stimata Matematica dell’UCL e autrice di Hello World.
Se un algoritmo prevede che abbiamo il cancro, possiamo essere testati, ma se ci dice qualcosa di molto più ambiguo, diciamo che se siamo popolari (o meno) potremmo essere inclini a considerarlo vero perché non abbiamo modo di convalidarlo . Questo a sua volta potrebbe portarci a prendere decisioni diverse grazie alla fiducia riposta in un algoritmo potenzialmente difettoso.

Fry nota che potremmo credere a ciò che gli algoritmi stanno dicendo a tal punto da annullare il nostro giudizio personale.

Si racconta la storia di un carico di turisti “che hanno cercato di guidare attraverso l’acqua per arrivare a una destinazione erano davvero interessati a visitare. Non hanno annullato la navigazione e hanno dovuto essere salvati. “

Chi sarà lì per salvarci se la nostra stessa auto-percezione è stata costretta di traverso?

Inoltre, l’uso dei dati per connettersi con le esperienze degli altri e di noi stessi è una questione separata per il fatto che gli algoritmi conoscono cose profondamente personali su di noi che possono essere condivise con altri attori al posto nostro.

“Cosa succede se l’algoritmo non condivide le informazioni con te, ma condivide le informazioni con gli inserzionisti? O con i governi? “Si chiedeva Harari.

Anche ora, le nostre informazioni sui social media vengono utilizzate per pubblicare annunci “pertinenti” e stiamo solo iniziando a scoprire chi paga per noi per vederli.

“Questo è un buon esempio, perché questo sta già accadendo”, ha detto Harari.

L’intelligenza artificiale è stata utilizzata per prevedere se abbandonare il nostro lavoro o rompere con il nostro altro significativo . Entrambe sono decisioni profondamente personali che molti di noi sarebbero riluttanti a volere che gli amici personali, e ancor meno le organizzazioni impersonali, sappiano.

Li è scettico sul fatto che un algoritmo potrebbe essere in grado di superare la nostra stessa introspezione in questo modo. “Non ne sono così sicuro!” Ha detto, dandoci la speranza che potremmo essere in grado di affrontare pensierosamente alcune di queste sfide mentre c’è ancora tempo.

“Ogni tecnologia che l’umanità ha creato partendo dal fuoco è un’arma a doppio taglio. Quindi può apportare miglioramenti alla vita, al lavoro e alla società, ma può portare pericoli, e l’IA ha questi pericoli “, ci ha ricordato.

Umani al centro di IA

“Possiamo riformulare l’educazione, la ricerca e il dialogo di intelligenza artificiale e tecnologia in generale in un modo incentrato sull’uomo?” – Fei-Fei Li
Con la discussione che si snoda attraverso così tante discipline pertinenti, Li ci ha offerto una proposta abile, anche se aperta, per iniziare ad affrontare le molte questioni che affrontiamo: rinnovare l’Intelligenza Artificiale in un modo incentrato sull’uomo.

Li ha iniziato il cambiamento alla Stanford University con un grande obiettivo e uno che fornisce un modello funzionale per tutte le organizzazioni, indipendentemente dalle dimensioni e dalla fonte.

Ha fondato l’istituto I-IA di Stanford Human-Centered (IAI) che riunirà persone provenienti da aree diverse per un nuovo dialogo collaborativo.

L’Istituto ha tre principi:

Essere consapevoli di ciò che vorremmo fosse l’IA;
Incoraggiare lo studio multidisciplinare; e
Concentrarsi sul miglioramento e sull’aumento dell’umanità.
“Oggi non troveremo necessariamente una soluzione, ma possiamo coinvolgere umanisti, filosofi, storici, politologi, economisti, etici, studiosi legali, neuroscienziati, psicologi e molti altri ancora discipline nello studio e nello sviluppo dell’IA nel prossimo capitolo “, ha detto Li riguardo all’Istituto.

Questa raccomandazione scaturisce dalle sfide che i ricercatori e i professionisti devono affrontare per ottenere e mantenere la fiducia del pubblico, fornire un’esperienza utente positiva e sostituire il guaio dell’influenza aviaria con una raccomandazione politica ben ponderata.

Definire obiettivi chiari all’interno della comunità di Intelligenza Artificiale è un passo importante verso un hub che possiamo radunare in tutto e il crossover tra varie discipline sta guadagnando sempre più trazione.

“Questo è esattamente il motivo per cui questo è il momento in cui crediamo che il nuovo capitolo dell’IA debba essere scritto dagli sforzi di impollinazione incrociata di umanisti, scienziati sociali, dirigenti aziendali, società civile, governi, per venire allo stesso tavolo a avere quella conversazione multilaterale e cooperativa “, ha sottolineato Li.

Ma siamo arrivati ​​a un bivio.

In effetti, molte delle questioni etiche che affrontiamo oggi sono il risultato di decisioni prese dagli ingegneri: l’ethos di “muovere velocemente e rompere le cose” ha finito per far sì che le cose si stiano davvero infrangendo.

Lavorare in tecnologia può accecare i suoi creatori dagli effetti delle tecnologie che costruiscono. Ci sono una miriade di risultati non intenzionali: grandi rivenditori online che affollano le piccole imprese e cambiano la composizione delle nostre città, per citarne solo una.

Come possiamo bilanciare il nostro desiderio di innovazione con i rischi che ne derivano? Quando le aziende riescono senza il rallentamento che deriva dall’essere deliberate e ponderate sulle loro offerte di AI, dovremmo prendere misure per frenare la loro crescita?

Li è ottimista riguardo l’inclusione dell’etica nella disciplina del software.

“Human-centered AI deve essere scritto dalla prossima generazione di tecnologi che hanno preso lezioni come [Stanford professore di scienze politiche] Rob [Reich] ‘s classe [Computer, Etica e Politiche Pubbliche], a pensare alle implicazioni etiche, la benessere umano.”

Per quanto semplice possa essere questo obiettivo, molti nella comunità di IA potrebbero chiedersi se potrebbe essere anche il più impegnativo.

“Non possiamo farlo da soli come tecnologi”, ha avvertito Li.

Come convincere le persone molto tecniche che lavorano nell’intelligenza artificiale, individui che potrebbero non voler interessarsi a temi nebulosi come gli effetti sociali del loro lavoro, che dovrebbero interessarsi di queste cose? E inoltre, dovrebbe essere questa l’aspettativa? Abbiamo bisogno di una dimensione etica per ogni ruolo in tutto il settore?

Li non è così sicuro.

“Alcuni di noi non dovrebbero nemmeno farlo. Sono gli etici, i filosofi che dovrebbero partecipare e lavorare con noi su questi temi “.

Sebbene pochissime persone lungimiranti che lavorano nel settore ne ignorerebbero l’importanza, il cambiamento di paradigma che richiede non dovrebbe essere minimizzato. C’è stato storicamente un grande disprezzo all’interno della comunità tecnologica per qualsiasi argomento non tecnico o tecnologico. La comunità di IA rispetterà l’importanza di queste nuove prospettive o rivolgeremo gli occhi a chiunque non comprenda backpropagation?

Anche Li ha scherzato, quando gli è stato chiesto se il lavoro di Harari è sul suo programma, “Non è il mio, mi dispiace. Insegno l’apprendimento profondo dell’hardcore. Il suo libro non ha equazioni. “

La conversazione è stata opportuna per porre nuove importanti domande sui modi in cui l’Intelligenza Artificiale può influenzarci come individui nei prossimi decenni. Per mitigare il potenziale di “Hacking Humans” senza una buona comprensione dei limiti della possibilità di manipolazione, Harari ci ha esortato a concentrarci sull’auto-consapevolezza:

“È il consiglio più antico in tutti i libri di filosofia è conoscere te stesso. L’abbiamo sentito da Socrate, da Confucio, dal Buddha: conosci te stesso. Ma c’è una differenza, che è che ora hai competizione … Sei in competizione con queste gigantesche corporazioni e governi. Se ti conoscono meglio di quanto tu sappia, il gioco è finito. “

Ma è necessaria una collaborazione, come suggerito da Li. Questo lavoro sta iniziando a prendere forma all’interno di numerose organizzazioni in tutto il mondo.

La conversazione tra Harari e Li segna l’inizio di un nuovo tipo di lavoro nell’IA.

“Abbiamo aperto il dialogo tra l’umanista e il tecnologo e voglio vedere di più”, ha detto.

Anche io.

Di ihal