L’INTELLIGENZA ARTIFICIALE MIGLIORERÀ O MANCHERÀ L’UMANITÀ?

QUESTA SETTIMANA HO intervistato Yuval Noah Harari, l’autore di tre libri best-seller sulla storia e il futuro della nostra specie, e Fei-Fei Li , uno dei pionieri nel campo dell’intelligenza artificiale. L’evento è stato ospitato dallo Stanford Center for Ethics and Society , dallo Stanford Institute for Human-Centered Artificial Intelligence e dallo Stanford Humanities Center . Segue una trascrizione dell’evento e un video viene pubblicato di seguito.

Nicholas Thompson: Grazie, Stanford, per averci invitato tutti qui. Voglio che questa conversazione abbia tre parti: in primo luogo, esponete dove siamo; quindi parla di alcune delle scelte che dobbiamo fare ora; e infine, parla di qualche consiglio per tutte le persone meravigliose nella sala.

Yuval, l’ ultima volta che abbiamo parlato , hai detto molte, molte cose brillanti, ma una che ha messo in risalto è stata una linea in cui hai detto: “Non siamo solo in una crisi tecnologica. Siamo in una crisi filosofica. “Quindi spiega cosa intendevi e spiega come si lega ad AI. Andiamo con una nota di angoscia esistenziale.

Yuval Noah Harari: Sì, quindi penso che quello che sta succedendo ora è che la struttura filosofica del mondo moderno, che è stata fondata nel 17 ° e 18 ° secolo, attorno a idee come l’azione umana e il libero arbitrio individuale, viene messa alla prova come mai prima d’ora. Non da idee filosofiche, ma da tecnologie pratiche. E vediamo sempre più domande, che erano il pane e il burro del dipartimento di filosofia trasferito al dipartimento di ingegneria. E questo è spaventoso, in parte perché a differenza dei filosofi che sono persone estremamente pazienti, possono discutere qualcosa per migliaia di anni senza raggiungere alcun accordo e stanno bene, gli ingegneri non aspetteranno. E anche se gli ingegneri sono disposti ad aspettare, gli investitori dietro gli ingegneri non aspetteranno. Quindi significa che non abbiamo molto tempo. E per incapsulare quello che è la crisi, forse posso provare e formulare un’equazione per spiegare cosa sta succedendo. E l’equazione è: B volte C volte D è uguale a HH, il che significa che la conoscenza biologica moltiplicata per la potenza di calcolo, moltiplicata per i dati equivale alla capacità di hackerare gli umani. E la rivoluzione o crisi dell’IA non è solo IA, è anche biologia. È biotech. Ora c’è molto clamore su AI e computer, ma questa è solo metà della storia. L’altra metà è la conoscenza biologica proveniente dalla scienza del cervello e dalla biologia. E una volta collegato a AI, ciò che ottieni è la capacità di hackerare gli umani. E forse spiegherò cosa significa, la capacità di hackerare gli umani: creare un algoritmo che mi capisca meglio di quanto io comprenda me stesso, e quindi può manipolarmi, migliorarmi o sostituirmi.

NT: Una volta che hai questo tipo di abilità, ed è usato per manipolarti o sostituirti, non se è usato per potenziarti?

YNH:Inoltre, quando è usato per potenziarti, la domanda è: chi decide che cosa è un buon miglioramento e cos’è un brutto miglioramento? Quindi, immediatamente, la nostra posizione di ripiego immediato è quella di ricorrere alle tradizionali idee umanistiche, che il cliente ha sempre ragione, i clienti sceglieranno il miglioramento. O l’elettore ha sempre ragione, gli elettori voteranno, ci sarà una decisione politica sulla valorizzazione. O se ti fa sentire bene, fallo. Seguiremo il nostro cuore, ascolteremo solo noi stessi. Nulla di tutto ciò funziona quando esiste una tecnologia per hackerare gli umani su larga scala. Non puoi fidarti dei tuoi sentimenti, degli elettori o dei clienti su questo. Le persone più facili da manipolare sono le persone che credono nel libero arbitrio, perché pensano di non poter essere manipolate. Quindi come fai a decidere cosa migliorare se, e questa è una domanda etica e filosofica molto profonda – ancora una volta che i filosofi hanno discusso per migliaia di anni – che cosa è buono? Quali sono le buone qualità che dobbiamo migliorare? Quindi se non puoi fidarti del cliente, se non puoi fidarti dell’elettore, se non puoi fidarti dei tuoi sentimenti, di chi ti fidi? Che cosa fai?

NT: Va bene, Fei-Fei, hai un dottorato di ricerca, hai una laurea in CS, sei professore a Stanford, fa B volte C volte D è uguale a HH? La teoria di Yuval è il modo giusto di guardare dove siamo diretti?

Fei-Fei Li: Wow. Che inizio! Grazie, Yuval. Una delle cose – ho letto i libri di Yuval negli ultimi due anni e ho parlato con te – e sono molto invidioso dei filosofi ora perché possono proporre domande ma non devono rispondere loro. Ora come ingegnere e scienziato, sento che ora dobbiamo risolvere la crisi . E sono molto grato che Yuval, tra le altre persone, abbia aperto questa domanda davvero importante per noi. Quando hai detto la crisi dell’IA, ero seduto lì a pensare, questo è un campo che ho amato e mi sono sentito appassionato e ricercato per 20 anni, ed era solo una curiosità scientifica di un giovane scienziato che stava entrando a far parte del PhD in AI. Che cosa è successo che 20 anni dopo è diventato una crisi? E in realtà parla dell’evoluzione dell’IA che mi ha presodove sono oggi e ho ottenuto i miei colleghi a Stanford, dove siamo oggi con l’intelligenza umana centrata sull’intelligenza umana, è che questa è una tecnologia di trasformazione. È una tecnologia nascente. È ancora una scienza in erba rispetto alla fisica, alla chimica, alla biologia, ma con il potere dei dati, dell’informatica e del tipo di impatto che l’IA sta facendo, è, come hai detto tu, toccare le vite umane e gli affari in modi ampi e profondi . E rispondendo a quel tipo di domande e crisi che stanno affrontando l’umanità, penso che una delle soluzioni proposte, su cui Stanford si sta impegnando, possa riformulare l’educazione, la ricerca e il dialogo dell’IA e della tecnologia in generale in un umano modo centinato? Oggi non stiamo necessariamente trovando una soluzione, ma possiamo coinvolgere umanisti, filosofi, storici, politologi, economisti, etici, studiosi legali, neuroscienziati, psicologi e molte altre discipline nello studio e nello sviluppo dell’IA nel prossimo capitolo, nella fase successiva.

“Forse posso provare e formulare un’equazione per spiegare cosa sta succedendo e l’equazione è: B volte C volte D è uguale a HH, il che significa che la conoscenza biologica moltiplicata per la potenza di calcolo, moltiplicata per i dati equivale alla capacità di hackerare gli umani.”

YUVAL NOAH HARARI

NT: Non essere così sicuro che non avremo una risposta oggi. Ho due delle persone più intelligenti del mondo incollate alle loro sedie e ho 72 minuti in più. Quindi facciamo un tentativo.

FL: Ha detto che abbiamo migliaia di anni!

NT: Lasciami andare un po ‘oltre sulla dichiarazione di apertura di Yuval. Ci sono molte crisi sull’IA di cui parlano le persone, giusto? Parlano di IA che diventa cosciente e che cosa significherà. Parlano di dislocamento lavorativo ; parlano di pregiudizi. E Yuval ha esposto molto chiaramente quello che pensa sia il più importante, ovvero la combinazione di biologia e informatica oltre a dati che portano all’hacking. È questa specifica preoccupazione su cosa dovrebbero concentrarsi le persone che pensano all’IA?

FL: assolutamente. Quindi qualsiasi tecnologia che l’umanità ha creato partendo dal fuoco è un’arma a doppio taglio. Quindi può portare miglioramenti alla vita, al lavoro e alla società, ma può portare i pericoli, e l’IA ha i pericoli. Sai, mi sveglio ogni giorno preoccupato per la diversità, problema di inclusione in AI . Ci preoccupiamo della correttezza o della mancanza di equità, privacy, mercato del lavoro. Quindi, assolutamente, dobbiamo essere preoccupati e per questo motivo, abbiamo bisogno di espandere la ricerca e lo sviluppo di politiche e il dialogo di AI oltre i soli codici e prodotti in queste stanze umane, nelle questioni sociali. Quindi sono assolutamente d’accordo con te su questo, che questo è il momento per aprire il dialogo, per aprire la ricerca su questi temi.

NT: Ok.

YNH: Anche se lo dirò di nuovo, parte della mia paura è il dialogo. Non temo che gli esperti di IA parlino con i filosofi, ci sto bene. Storici, bene. Critici letterari, meravigliosi. Ho paura dal momento in cui inizi a parlare con i biologi. Questa è la mia più grande paura. Quando tu e i biologi capite, “Ehi, in realtà abbiamo un linguaggio comune. E possiamo fare le cose insieme “. Ed è allora che le cose davvero spaventose, penso …

FL: Puoi approfondire ciò che ti spaventa? Che parliamo ai biologi?

YNH: Questo è il momento in cui puoi davvero hackerare gli esseri umani, non raccogliendo dati sulle nostre parole di ricerca o le nostre abitudini di acquisto, o dove andiamo in città, ma puoi effettivamente iniziare a scrutare dentro e raccogliere dati direttamente dai nostri cuori e dal nostro cervello

FL: Ok, posso essere specifico? Prima di tutto la nascita dell’intelligenza artificiale sono gli scienziati dell’IA che parlano con i biologi, in particolare con i neuroscienziati , giusto. La nascita dell’IA è molto ispirata da ciò che fa il cervello. Avanzando rapidamente a 60 anni più tardi, l’IA di oggi sta apportando grandi miglioramenti nel settore sanitario . Sono raccolti molti dati dalla nostra fisiologia e patologia e l’utilizzo dell’apprendimento automatico per aiutarci. Ma mi sembra che tu stia parlando di qualcos’altro.

YNH: Questo è parte di esso. Voglio dire, se non ci fosse una grande promessa nella tecnologia, non ci sarebbe alcun pericolo perché nessuno avrebbe seguito quella strada. Voglio dire, ovviamente, ci sono cose enormemente benefiche che l’intelligenza artificiale può fare per noi, specialmente quando è collegata alla biologia. Stiamo per ottenere la migliore assistenza sanitaria nel mondo, nella storia e il più economico e disponibile per miliardi di persone dai loro smartphone. Ed è per questo che è quasi impossibile resistere alla tentazione. E con tutti i problemi della privacy, se hai una grande battaglia tra privacy e salute, è probabile che la salute vinca a mani basse. Quindi sono pienamente d’accordo. E sai, il mio lavoro di storico, di filosofo, di critico sociale è di mettere in evidenza i pericoli in questo. Perché, specialmente nella Silicon Valley, le persone conoscono molto bene i vantaggi, ma a loro non piace pensare tanto ai pericoli. E il grande pericolo è quello che succede quando puoi hackerare il cervello e questo può servire non solo al tuo medico, che può servire così tante cose per un dittatore pazzo.

NT: Concentriamoci su cosa significa hackerare il cervello. In questo momento, in qualche modo il mio cervello è stato violato, giusto? C’è un fascino di questo dispositivo, vuole che lo controlli costantemente, come se il mio cervello fosse stato un po ‘violato. Il tuo non ha perché mediti due ore al giorno, ma il mio ha e probabilmente la maggior parte di queste persone ha. Ma quale sarà esattamente il futuro brain hacking che non è oggi?

YNH:Molto più o meno lo stesso, ma su una scala molto più ampia. Voglio dire, il punto in cui, per esempio, sempre più le tue decisioni personali nella vita vengono esternalizzate a un algoritmo che è molto meglio di te. Quindi, sai, hai due distopie distinte che uniscono il tipo di mesh. Abbiamo la distopia del capitalismo di sorveglianza, in cui non esiste un dittatore del Grande Fratello, ma sempre più decisioni vengono prese da un algoritmo. E non sono solo le decisioni su cosa mangiare o dove fare acquisti, ma le decisioni come dove lavorare e dove studiare, e chi fino ad oggi e chi sposarsi e per chi votare. È la stessa logica. E sarei curioso di sapere se pensi che ci sia qualcosa negli umani che per definizione è irraggiungibile. Che possiamo t raggiungere un punto in cui l’algoritmo può prendere questa decisione meglio di me. Quindi questa è una linea di distopia, che è un po ‘più familiare in questa parte del mondo. E poi ne hai il pienodistopia di un regime totalitario basato su un sistema di sorveglianza totale. Qualcosa come i regimi totalitari che abbiamo visto nel 20 ° secolo, ma aumentati con sensori biometrici e la capacità di tracciare praticamente ogni singolo individuo 24 ore al giorno.

E sai, che ai tempi di Stalin o di Hitler era assolutamente impossibile perché non avevano la tecnologia, ma forse sarebbe stato possibile in 20 anni, a 30 anni. Quindi, possiamo scegliere quale distopia da discutere ma sono molto vicini …

NT: Scegliamo la distopia della democrazia liberale. Fei-Fei, vuoi rispondere alla domanda specifica di Yuval, che è, c’è qualcosa in Dystopia A, la distopia della democrazia liberale, c’è qualcosa di endemico per gli umani che non può essere violato?

FL: Quindi quando mi hai fatto questa domanda, solo due minuti fa, la prima parola che mi è venuta in mente è l’amore. L’amore è hackerabile?

YNH: chiedi a Tinder, non lo so.

FL: Incontri!

YNH: Questa è una difesa …

FL: La datazione non è l’insieme dell’amore, spero.

YNH: Ma la domanda è, a quale tipo di amore ti riferisci? se ti riferisci all’amore filosofico greco o alla gentilezza amorevole del buddhismo, questa è una domanda, che penso sia molto più complicata. Se ti riferisci ai rituali di corteggiamento biologici e dei mammiferi, allora penso di sì. Voglio dire, perché no? Perché è diverso da qualsiasi altra cosa che sta accadendo nel corpo?

FL: Ma gli umani sono umani perché siamo … c’è una parte di noi che va oltre il corteggiamento dei mammiferi, giusto? Questa parte è hackerabile?

YNH: Questa è la domanda. Voglio dire, sai, nella maggior parte dei libri e film di fantascienza, danno la tua risposta. Quando i robot malvagi extraterrestri stanno per conquistare il pianeta Terra e nulla può resistergli, la resistenza è inutile, all’ultimo momento, gli umani vincono perché i robot non capiscono l’amore.

FL: L’ultimo momento è un eroe bianco eroico che ci salva. Ma va bene così le due distopie, non ho risposte alle due distopie. Ma quello che voglio continuare a dire è, questo è esattamente il motivo per cui questo è il momento in cui dobbiamo cercare soluzioni. Questo è esattamente il motivo per cui questo è il momento in cui crediamo che il nuovo capitolo dell’IA debba essere scritto da sforzi incrociati di umanisti, scienziati sociali, dirigenti d’impresa, società civile, governi, per venire allo stesso tavolo per avere quella conversazione multilaterale e cooperativa. Penso che tu mostri davvero l’urgenza, l’importanza e l’entità di questa potenziale crisi. Ma penso che, di fronte a ciò, dobbiamo agire.

“Le persone più facili da manipolare sono le persone che credono nel libero arbitrio, perché pensano di non poter essere manipolate”.

YUVAL NOAH HARARI

YNH: Sì, e sono d’accordo sul fatto che abbiamo bisogno di cooperazione che abbiamo bisogno di una cooperazione molto più stretta tra ingegneri e filosofi o ingegneri e storici. E anche da una prospettiva filosofica, penso che ci sia qualcosa di meraviglioso sugli ingegneri, filosoficamente-

FL: Grazie!

YNH:- che hanno davvero tagliato le cazzate. Voglio dire, i filosofi possono parlare e parlare, sai, con metafore nuvolose e fiorite, e quindi gli ingegneri possono davvero concentrare la domanda. Come ho appena avuto una discussione l’altro giorno con un ingegnere di Google su questo, e ha detto, “Va bene, so come ottimizzare il tempo delle persone sul sito web. Se qualcuno viene da me e mi dice: “Guarda, il tuo lavoro è di massimizzare il tempo su questa applicazione”. So come farlo perché so come misurarlo. Ma se qualcuno arriva e mi dice: “Bene, devi massimizzare la prosperità umana, o devi massimizzare l’amore universale”. Non so cosa significhi. “Così gli ingegneri tornano dai filosofi e chiedono loro:” In realtà cosa intendi? “Che, sai, molte teorie filosofiche collassano attorno a questo, perché possono

FL: Sì Abbiamo bisogno di un’equazione per questo.

NT: Ma Yuval, è Fei-Fei vero? Se non possiamo spiegare e non possiamo codificare l’amore, l’intelligenza artificiale può mai ricrearlo o è qualcosa di intrinseco agli umani che le macchine non emuleranno mai?

YNH: Non penso che le macchine sentiranno l’amore. Ma non devi necessariamente sentirlo, per essere in grado di hackerarlo, monitorarlo, prevederlo, manipolarlo. Quindi alle macchine non piace giocare a Candy Crush, ma possono comunque …

NT: Quindi pensi che questo dispositivo, in un futuro in cui è infinitamente più potente di adesso, potrebbe farmi innamorare di qualcuno del pubblico?

YNH:Questo riguarda la questione della coscienza e della mente, e non penso che abbiamo la comprensione di quale sia la coscienza per rispondere alla domanda se una coscienza non-biologica è possibile o non è possibile, penso che semplicemente non lo sappiamo . Ma ancora, la barra per hackerare gli umani è molto più bassa. Le macchine non hanno bisogno di avere coscienza propria per poter predire le nostre scelte e manipolare le nostre scelte. Se accetti che qualcosa come l’amore è alla fine e il processo biologico nel corpo, se pensi che l’intelligenza artificiale possa fornirci un’assistenza sanitaria meravigliosa, essendo in grado di monitorare e prevedere qualcosa come l’influenza, o qualcosa come il cancro, qual è l’essenziale differenza tra influenza e amore? Nel senso di questo è biologico, e questo è qualcos’altro, che è così separato dalla realtà biologica del corpo,

FL: Quindi voglio fare due commenti ed è qui che la mia ingegneria, sai, parlando personalmente, stiamo facendo due presupposti molto importanti in questa parte della conversazione. Uno è che l’intelligenza artificiale è così onnipotente, che è raggiunto da uno stato che è oltre la previsione di qualsiasi cosa fisica, che sta raggiungendo il livello di coscienza, sta arrivando persino al livello di
capacità di amore finale . E voglio essere sicuro che riconosciamo che siamo molto, molto, molto lontani da quello. Questa tecnologia è ancora molto nascente. Parte della preoccupazione che ho sull’IA di oggi è quella super-amplificazione delle sue capacità. Quindi non sto dicendo che non è una domanda valida. Ma penso che una parte di questa conversazione sia basata su quell’assunzione che questa tecnologia è diventata così potente e non so nemmeno da quanti decenni ne facciamo parte. Secondo presupposto correlato, ritengo che la nostra conversazione sia basata su questo che stiamo parlando del mondo o dello stato del mondo che esiste solo l’IA potente, o quel piccolo gruppo di persone che hanno prodotto la potente IA e che è destinato a hackerare l’uomo esiste Ma in realtà, la nostra società umana è così complessa, ci sono così tanti di noi, giusto? Intendo l’umanità nella sua storia, ha affrontato tanta tecnologia se l’abbiamo lasciata nelle mani di un cattivo giocatore da solo, senza alcuna regolamentazione, collaborazione multinazionale, regole, leggi, codici morali, che la tecnologia potrebbe avere, forse non ha violato gli umani, ma ha distrutto gli umani o ferito gli esseri umani in modo massiccio. È successo, ma nel complesso, la nostra società in una visione storica si sta spostando verso uno stato più civile e controllato. Quindi penso che sia importante guardare a quella società più grande e portare altri giocatori e persone in questo dialogo. Quindi non parliamo come se solo questa onnipotente IA decidesse di incidere tutto fino alla fine. E questo mi porta al tuo argomento che oltre all’hacking degli umani a quel livello di cui stai parlando, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora. codici morali, che la tecnologia potrebbe avere, forse non ha violato gli umani, ma ha distrutto gli umani o ferito gli umani in modo massiccio. È successo, ma nel complesso, la nostra società in una visione storica si sta spostando verso uno stato più civile e controllato. Quindi penso che sia importante guardare a quella società più grande e portare altri giocatori e persone in questo dialogo. Quindi non parliamo come se solo questa onnipotente IA decidesse di incidere tutto fino alla fine. E questo mi porta al tuo argomento che oltre all’hacking degli umani a quel livello di cui stai parlando, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora. codici morali, che la tecnologia potrebbe avere, forse non ha violato gli umani, ma ha distrutto gli umani o ferito gli umani in modo massiccio. È successo, ma nel complesso, la nostra società in una visione storica si sta spostando verso uno stato più civile e controllato. Quindi penso che sia importante guardare a quella società più grande e portare altri giocatori e persone in questo dialogo. Quindi non parliamo come se solo questa onnipotente IA decidesse di incidere tutto fino alla fine. E questo mi porta al tuo argomento che oltre all’hacking degli umani a quel livello di cui stai parlando, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora. ma ha distrutto gli umani o ferito gli umani in modo massiccio. È successo, ma nel complesso, la nostra società in una visione storica si sta spostando verso uno stato più civile e controllato. Quindi penso che sia importante guardare a quella società più grande e portare altri giocatori e persone in questo dialogo. Quindi non parliamo come se solo questa onnipotente IA decidesse di incidere tutto fino alla fine. E questo mi porta al tuo argomento che oltre all’hacking degli umani a quel livello di cui stai parlando, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora. ma ha distrutto gli umani o ferito gli umani in modo massiccio. È successo, ma nel complesso, la nostra società in una visione storica si sta spostando verso uno stato più civile e controllato. Quindi penso che sia importante guardare a quella società più grande e portare altri giocatori e persone in questo dialogo. Quindi non parliamo come se solo questa onnipotente IA decidesse di incidere tutto fino alla fine. E questo mi porta al tuo argomento che oltre all’hacking degli umani a quel livello di cui stai parlando, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora. Quindi penso che sia importante guardare a quella società più grande e portare altri giocatori e persone in questo dialogo. Quindi non parliamo come se solo questa onnipotente IA decidesse di incidere tutto fino alla fine. E questo mi porta al tuo argomento che oltre all’hacking degli umani a quel livello di cui stai parlando, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora. Quindi penso che sia importante guardare a quella società più grande e portare altri giocatori e persone in questo dialogo. Quindi non parliamo come se solo questa onnipotente IA decidesse di incidere tutto fino alla fine. E questo mi porta al tuo argomento che oltre all’hacking degli umani a quel livello di cui stai parlando, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora. Riguardo a questo, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora. Riguardo a questo, ci sono già alcune preoccupazioni molto immediate: diversità, privacy, lavoro, cambiamenti legali, sai, geopolitica internazionale. E penso che sia, è fondamentale affrontarli ora.

NT: Adoro parlare con i ricercatori di IA, perché cinque anni fa tutti i ricercatori di IA stavano dicendo che è molto più potente di quanto pensi . E ora sono come, non è così potente come pensi . Va bene, quindi mi permetterò solo di chiedere-

FL: È perché cinque anni fa non avevi idea di cosa sia l’intelligenza artificiale, ora stai estrapolando troppo.

NT: Non ho detto che era sbagliato. Ho appena detto che era la cosa. Voglio entrare in quello che hai appena detto. Ma prima di farlo, voglio portare una domanda qui dal pubblico, perché una volta entrati nella seconda sezione saremo in grado di rispondere. Quindi la domanda è per Yuval, come possiamo evitare la formazione di dittature digitali basate sull’intelligenza artificiale? Quindi, come evitiamo la distopia numero due, entriamo in quella. E poi andiamo, Fei-Fei, in quello che possiamo fare adesso, non quello che possiamo fare in futuro.

YNH: il problema chiave è come regolare la proprietà dei dati . Perché non fermeremo la ricerca in biologia e non smetteremo mai di fare ricerche sull’informatica e l’intelligenza artificiale. Quindi, dalle tre componenti della conoscenza biologica, potenza di calcolo e dati, penso che i dati siano i più facili, ed è anche molto difficile, ma è ancora il tipo più facile da regolamentare, da proteggere. Mettiamo alcune protezioni lì. E ora ci sono degli sforzi da fare. E non sono solo sforzi politici, ma sai, anche gli sforzi filosofici per concettualizzare veramente, cosa significa avere i dati o regolare la proprietà dei dati? Perché abbiamo una buona conoscenza di cosa significa possedere la terra. Abbiamo avuto migliaia di anni di esperienza in questo. Abbiamo una comprensione molto scarsa di ciò che significa in realtà per possedere i dati e come regolarli. Ma questo è il fronte molto importante su cui dobbiamo concentrarci per prevenire i peggiori risultati distopici.

E sono d’accordo che l’intelligenza artificiale non è così potente come immagina qualcuno. Ma questo è il motivo per cui penso che sia necessario posizionare la barra in basso, per raggiungere una soglia critica. Non abbiamo bisogno dell’IA per conoscerci perfettamente, cosa che non accadrà mai. Abbiamo solo bisogno dell’IA per conoscerci meglio di quanto conosciamo noi stessi, il che non è così difficile perché la maggior parte della gente non si conosce molto bene e spesso commette enormi errori nelle decisioni critiche. Quindi, sia che si tratti di finanza, carriera o vita amorosa, di avere questa mutevole autorità dagli umani all’algoritmo, possono comunque essere terribili. Ma finché saranno un po ‘meno terribili di noi, l’autorità si sposterà su di loro.

NT: Nel tuo libro, racconti una storia molto illuminante su te stesso e il tuo stesso venire a patti con chi sei e come potresti essere manipolato. Racconterai qui la storia di venire a patti con la tua sessualità e la storia che hai raccontato di Coca-Cola nel tuo libro? Perché penso che chiarirò cosa intendi qui molto bene.

YNH: Sì. Così ho detto, ho solo capito che ero gay quando avevo 21 anni. E guardo indietro al tempo e io non sapevo 15, 17 e avrebbe dovuto essere così ovvio. Non è che io sia un estraneo. Sono con me stesso 24 ore al giorno. E proprio non mi accorgo di niente dei segni urlanti che stanno dicendo: “Sei gay”. E non so come, ma il fatto è che mi sono perso. Ora nell’IA, anche un’IA molto stupida oggi, non la mancherà.

FL: Non ne sono così sicuro!

YNH: Quindi immagina, questo non è come uno scenario fantascientifico di un secolo da oggi, questo può accadere oggi che puoi scrivere tutti i tipi di algoritmi che, sai, non sono perfetti, ma sono comunque migliori, ad esempio, rispetto all’adolescente medio. E cosa significa vivere in un mondo in cui impari qualcosa di così importante in te stesso da un algoritmo? Che cosa significa, cosa succede se l’algoritmo non condivide le informazioni con te, ma condivide le informazioni con gli inserzionisti? O con i governi? Quindi se vuoi, e penso che dovremmo, scendere dalla nuvola, dalle altezze, da te, dagli scenari estremi, dagli aspetti pratici della vita quotidiana. Questo è un buon esempio, perché questo sta già accadendo.

NT: Bene, portiamo l’ascensore al livello più concettuale. Parliamo di cosa possiamo fare oggi, mentre pensiamo ai rischi dell’IA, ai benefici dell’IA e dicci che sai, una sorta di elenco dei tuoi punch di ciò che pensi siano le cose più importanti che dovremmo pensare con AI siamo.

FL:Oh ragazzo, ci sono così tante cose che potremmo fare oggi. E non posso essere più d’accordo con Yuval, che questo è un argomento così importante. Di nuovo, cercherò di parlare di tutti gli sforzi che sono stati fatti a Stanford perché ritengo che questa sia una buona rappresentazione di ciò che crediamo siano così tanti sforzi che possiamo fare. Quindi, nell’IA centrata sull’uomo, in cui questo è il tema generale, crediamo che il prossimo capitolo dell’AI dovrebbe essere centrato sull’uomo, crediamo in tre principi principali. Un principio è investire nella prossima generazione di tecnologia AI che riflette più del tipo di intelligenza umana che vorremmo. Stavo solo pensando al tuo commento sulla dipendenza dai dati e su come dovrebbero emergere la politica e la governance dei dati al fine di regolare e governare l’impatto dell’IA. Bene, dovremmo sviluppare una tecnologia in grado di spiegare l’intelligenza artificiale, lo chiamiamo AI spiegabile o studi di interpretabilità AI; dovremmo concentrarci sulla tecnologia che ha una comprensione più sfumata dell’intelligenza umana. Dovremmo investire nello sviluppo di una tecnologia IA meno dipendente dai dati, che prenderà in considerazione l’intuizione, la conoscenza, la creatività e altre forme di intelligenza umana. Quindi quel tipo di intelligenza umana ispirata all’IA è uno dei nostri principi.

Il secondo principio è, ancora una volta, benvenuto nel tipo di studio multidisciplinare sull’intelligenza artificiale. Impollinazione incrociata con l’economia, con l’etica, con la legge, con la filosofia, con la storia, la scienza cognitiva e così via. Perché c’è molto di più che dobbiamo capire in termini di impatto sociale, umano, antropologico, etico. E non possiamo farlo da soli come tecnologi. Alcuni di noi non dovrebbero nemmeno farlo. Sono gli etici, i filosofi che dovrebbero partecipare e lavorare con noi su questi temi. Quindi questo è il secondo principio. E all’interno di questo, lavoriamo con i politici. Convochiamo il tipo di dialogo delle parti interessate multilaterali.

PER SAPERNE DI PIÙ

LA GUIDA WIRED ALL’INTELLIGENZA ARTIFICIALE
Poi il terzo, ultimo ma non meno importante, penso, Nick, hai detto che proprio all’inizio di questa conversazione, abbiamo bisogno di promuovere l’aspetto umano di valorizzazione e collaborazione e argomentazione di questa tecnologia. Tu hai un punto. Anche lì, può diventare manipolativo. Ma dobbiamo iniziare con quel senso di attenzione, comprensione, ma promuovere ancora il tipo di applicazione e progettazione benevole di questa tecnologia. Almeno, questi sono i tre principi su cui si basa l’Istituto di intelligenza artificiale di Stanford. E mi sento molto orgoglioso, entro pochi mesi dalla nascita di questo istituto, ci sono più di 200 docenti coinvolti in questo campus in questo tipo di ricerca, dialogo, studio, educazione, e quel numero è ancora in crescita.

NT:Di questi tre principi, iniziamo a scavare in essi. Andiamo al numero uno, la spiegabilità, perché questo è un dibattito davvero interessante sull’intelligenza artificiale. Quindi ci sono alcuni professionisti che dicono che dovresti avere algoritmi in grado di spiegare cosa hanno fatto e le scelte che hanno fatto. Sembra eminentemente sensibile. Ma come lo fai? Prendo tutti i tipi di decisioni che non riesco a spiegare completamente. Tipo, perché ho assunto questa persona, non quella persona? Posso raccontare una storia sul perché l’ho fatto. Ma non lo so per certo. Se non ci conosciamo abbastanza bene da essere sempre in grado di spiegare in modo veritiero e completo ciò che abbiamo fatto, come possiamo aspettarci che un computer, usando l’intelligenza artificiale, lo faccia? E se chiediamo che qui in Occidente, ci sono altre parti del mondo che non chiedono a chi potrebbe essere in grado di muoversi più velocemente. Quindi perché don ‘ Ti chiedo la prima parte di questa domanda, e Yuval tutta la seconda parte di quella domanda. Quindi la prima parte è, possiamo effettivamente ottenere spiegabilità se è super difficile anche dentro di noi?

FL:Beh, è ​​abbastanza difficile per me moltiplicare le due cifre, ma, sai, i computer possono farlo. Quindi il fatto che qualcosa sia difficile per gli umani non significa che non dovremmo cercare di convincere le macchine a farlo. Soprattutto, lo sai, dopo che tutti questi algoritmi sono basati su una logica matematica molto semplice. Certo, oggi abbiamo a che fare con reti neurali che hanno milioni di nodi e miliardi di connessioni. Quindi la spiegabilità è in realtà dura. È una ricerca in corso. Ma penso che questo sia un terreno così fertile. Ed è così fondamentale quando si tratta di decisioni sanitarie, decisioni finanziarie, decisioni legali. Ci sono così tanti scenari in cui questa tecnologia può essere potenzialmente positivamente utile, ma con quel tipo di capacità spiegabile, quindi dobbiamo provare e sono abbastanza fiducioso con un sacco di menti intelligenti là fuori,

Oltre a ciò, penso che tu abbia un punto in cui, se disponiamo di una tecnologia in grado di spiegare il processo decisionale degli algoritmi, rende più difficile manipolare e imbrogliare. Destra? È una soluzione tecnica, non l’insieme della soluzione, che contribuirà a chiarire cosa sta facendo questa tecnologia.

YNH:Ma perché, presumibilmente, l’IA prende decisioni in un modo radicalmente diverso rispetto agli umani, quindi anche se l’IA spiega la sua logica, la paura è che non avrà assolutamente senso per la maggior parte degli umani. La maggior parte degli umani, quando viene loro richiesto di spiegare una decisione, raccontano una storia in una forma narrativa, che può o meno riflettere ciò che sta effettivamente accadendo in essi. In molti casi, non riflette, è solo una razionalizzazione inventata e non la cosa reale. Ora un’IA potrebbe essere molto diversa da un umano nel dirmi, come se fossi ricorso alla banca per ottenere prestiti. E la banca dice di no. E ho chiesto perché no? E la banca dice che va bene, chiederemo alla nostra IA. E l’intelligenza artificiale fornisce questa analisi statistica estremamente lunga basata non su una o due caratteristiche salienti della mia vita, ma su 2.517 diversi punti di dati, che ha preso in considerazione e ha dato pesi diversi. E perché hai dato questo peso? E perché hai dato … Oh, c’è un altro libro su questo. E la maggior parte dei punti dati di un essere umano sembrerebbe del tutto irrilevante. Hai fatto domanda per un prestito il lunedì, e non mercoledì, e l’IA ha scoperto che, per qualsiasi motivo, è dopo il fine settimana, qualunque cosa, le persone che chiedono prestiti per un lunedì sono meno probabilità dello 0,075 percento di rimborsare il prestito. Quindi entra nell’equazione. E ottengo questo libro della vera spiegazione. E infine, ottengo una vera spiegazione. Non è come stare con un banchiere umano che mi fa solo delle cazzate. è dopo il fine settimana, in ogni caso, le persone che chiedono prestiti per un lunedì sono meno probabilità dello 0,075 percento di rimborsare il prestito. Quindi entra nell’equazione. E ottengo questo libro della vera spiegazione. E infine, ottengo una vera spiegazione. Non è come stare con un banchiere umano che mi fa solo delle cazzate. è dopo il fine settimana, in ogni caso, le persone che chiedono prestiti per un lunedì sono meno probabilità dello 0,075 percento di rimborsare il prestito. Quindi entra nell’equazione. E ottengo questo libro della vera spiegazione. E infine, ottengo una vera spiegazione. Non è come stare con un banchiere umano che mi fa solo delle cazzate.

FL: Quindi stai facendo il tifo per l’intelligenza artificiale? Stai dicendo che l’intelligenza artificiale è buona in questo caso?

YNH: In molti casi, sì. Voglio dire, penso che in molti casi, sono i due lati della medaglia. Penso che, in molti modi, l’intelligenza artificiale in questo scenario sarà un miglioramento rispetto al banchiere umano. Perché, ad esempio, puoi davvero sapere su cosa si basa la decisione presumibilmente, giusto, ma si basa su qualcosa che io, in quanto essere umano, non riesco proprio ad afferrare. Io proprio non … so come affrontare semplici storie narrative. Non ti ho dato un prestito perché sei gay. Questo non è buono. O perché non hai rimborsato nessuno dei tuoi precedenti prestiti. Va bene, posso capirlo. Ma la mia mente non sa cosa fare con la vera spiegazione che l’IA darà, che è solo questa pazza cosa statistica …

“Parte della preoccupazione che ho sull’IA di oggi è quella super-amplificazione delle sue capacità: parte di questa conversazione è basata su quell’assunzione che questa tecnologia è diventata così potente e non so nemmeno da quanti decenni ci provochiamo. “

FEI-FEI LI

FL:Quindi ci sono due livelli per il tuo commento. Uno è come ti fidi e riesci a comprendere la spiegazione di AI? In secondo luogo, l’AI può essere utilizzato per rendere gli umani più fiduciosi o più affidabili come gli umani. Il primo punto, sono d’accordo con te, se l’intelligenza artificiale ti offre 2.000 dimensioni di potenziali caratteristiche con probabilità, non è comprensibile, ma l’intera storia della scienza nella civiltà umana deve essere in grado di comunicare i risultati della scienza in modi migliori e migliori. Destra? Come se avessi appena ricevuto il mio fisico annuale e un bel po ‘di numeri arrivassero al mio cellulare. E, beh, prima di tutto i miei dottori, gli esperti, possono aiutarmi a spiegare questi numeri. Ora anche Wikipedia può aiutarmi a spiegare alcuni di questi numeri, ma i miglioramenti tecnologici nello spiegare questi miglioramenti miglioreranno. E’

YNH:Ma questa è la spiegazione. E penso che il punto che hai sollevato sia molto importante. Ma lo vedo diversamente. Penso che la scienza stia sempre peggiorando nello spiegare le sue teorie e le sue scoperte al grande pubblico, che è la ragione di cose come il dubbio sui cambiamenti climatici e così via. E non è nemmeno colpa degli scienziati, perché la scienza sta diventando sempre più complicata. E la realtà è estremamente complicata. E la mente umana non era adatta a comprendere le dinamiche dei cambiamenti climatici, o le vere ragioni per rifiutare di dare un prestito a qualcuno. Ma questo è il punto in cui hai un – e mettiamo da parte l’intera questione della manipolazione e di come posso fidarmi. Supponiamo che l’intelligenza artificiale sia benigna. E supponiamo che non ci siano pregiudizi nascosti e tutto è ok. Ma ancora, io posso

FL: Ma è per questo che persone come Nick, il narratore, devono spiegare … Quello che sto dicendo, hai ragione. È molto complesso

NT: Perderò il mio lavoro su un computer come la prossima settimana, ma sono felice di avere fiducia in me!

FL: Ma questo è il lavoro della società collettivamente per spiegare la complessa scienza. Non sto dicendo che stiamo facendo un ottimo lavoro. Ma sto dicendo che c’è speranza se proviamo.

YNH: Ma la mia paura è che non possiamo davvero farlo. Perché la mente umana non è costruita per affrontare questo tipo di spiegazioni e tecnologie. Ed è vero, voglio dire, è vero per il singolo cliente che va in banca e la banca si è rifiutata di concedere loro un prestito. E può anche essere al livello, voglio dire, quante persone oggi sulla terra comprendono il sistema finanziario? Quanti presidenti e primi ministri comprendono il sistema finanziario?

NT: in questo paese, è zero.

YNH:Che cosa significa vivere in una società in cui le persone che dovrebbero gestire l’attività … E ancora, non è colpa di un particolare politico, è solo che il sistema finanziario è diventato così complicato. E non penso che gli economisti stiano tentando apposta di nascondere qualcosa al grande pubblico. È semplicemente estremamente complicato. Hai alcune delle persone più sagge del mondo, che vanno nel settore finanziario e creano questi modelli e strumenti enormemente complessi, che oggettivamente non puoi spiegare alla maggior parte della gente, a meno che, prima di tutto, studino economia e matematica per 10 anni o qualsiasi altra cosa Quindi penso che questa sia una vera crisi. E questo è ancora una volta, questo fa parte della crisi filosofica con cui abbiamo iniziato. E l’indebolimento dell’agire umano. Questo fa parte di ciò che sta accadendo, che abbiamo questi strumenti estremamente intelligenti che sono in grado di prendere decisioni forse migliori sulla nostra assistenza sanitaria, sul nostro sistema finanziario, ma non possiamo capire cosa stanno facendo e perché lo stanno facendo. E questo mina la nostra autonomia e la nostra autorità. E non sappiamo come società come affrontarlo.

NT: Idealmente, l’istituto Fei-Fei aiuterà questo. Ma prima di lasciare questo argomento, voglio passare a una domanda strettamente correlata, che ritengo sia una delle più interessanti, che è la questione del bias negli algoritmi, che è qualcosa su cui hai parlato eloquentemente. E iniziamo con il sistema finanziario. Quindi puoi immaginare un algoritmo usato da una banca per determinare se qualcuno dovrebbe ottenere un prestito. E puoi immaginare di addestrarlo su dati storici e dati storici sono razzisti. E noi non vogliamo quello. Quindi cerchiamo di capire come assicurare che i dati non siano razzisti e che prestino prestiti alle persone indipendentemente dalla razza. E probabilmente tutti, tutti in questa stanza sono d’accordo sul fatto che questo è un buon risultato.

Ma diciamo che l’analisi dei dati storici suggerisce che le donne hanno maggiori probabilità di rimborsare i loro prestiti rispetto agli uomini. Lo spogliamo? O permettiamo che rimaniamo? Se permetti che rimanga, ottieni un sistema finanziario leggermente più efficiente? Se lo spogli, hai un po ‘più di eguaglianza prima tra uomini e donne. Come prendi decisioni su quali pregiudizi vuoi eliminare e quali sono a posto?

FL:Si, questa è una domanda eccellente, Nick. Voglio dire, non avrò le risposte personalmente, ma penso che tu tocchi la questione davvero importante, che è, prima di tutto, che il bias del sistema di apprendimento automatico è una cosa reale. Sai, come hai detto tu, inizia con i dati, probabilmente inizia nel momento stesso in cui raccogliamo i dati e il tipo di dati che stiamo raccogliendo attraverso l’intera pipeline, e poi fino all’applicazione. Ma i pregiudizi arrivano in modi molto complessi. A Stanford, abbiamo scienziati che studiano le macchine studiando le soluzioni tecniche di bias, come, sapete, de-polarizzare i dati o normalizzare certi processi decisionali. Ma abbiamo anche degli umanisti che discutono su cosa sia il pregiudizio, che cos’è l’equità, quando è un pregiudizio buono, quando è sbagliato il bias? Quindi penso che tu abbia appena aperto un tema perfetto per la ricerca, il dibattito e la conversazione in questo argomento. E voglio anche sottolineare che hai già utilizzato un esempio molto strettamente correlato, un algoritmo di apprendimento automatico ha un potenziale per esporre in realtà pregiudizi. Destra? Sai, uno dei miei studi preferiti è stato un documento un paio di anni fa che analizzava i film di Hollywood e utilizzava un algoritmo di riconoscimento facciale di apprendimento automatico, che è moltotecnologia controversa in questi giorni , per riconoscere che Hollywood dà sistematicamente più tempo allo schermo agli attori maschi rispetto agli attori femminili. Nessun essere umano può sedersi lì e contare tutti i fotogrammi di volti e se c’è un pregiudizio di genere e questo è un perfetto esempio di utilizzo dell’apprendimento automatico da esporre. Quindi, in generale, c’è una ricca serie di problemi che dovremmo studiare e ancora, portare gli umanisti, portare l’etico, portare gli studiosi di legge, portare gli esperti di studio di genere.

NT: concordato. Sebbene, difendendo gli umani, sapevo che Hollywood era sessista ancor prima di quel documento. ma sì, d’accordo.

FL: Sei un uomo intelligente.

NT: Yuval, su quella questione dei prestiti, spoglia i dati razzisti, spoglia i dati di genere? Che pregiudizi ti liberi di quali pregiudizi non fai?

YNH: Non penso che esista una taglia unica. Voglio dire, è una domanda che, ancora una volta, abbiamo bisogno di questa collaborazione quotidiana tra ingegneri ed etici, psicologi e politologi

NT: Ma non i biologi, giusto?

YNH: E sempre di più, anche i biologi! E, sai, si torna alla domanda, cosa dovremmo fare? Quindi, dovremmo insegnare l’etica ai programmatori come parte del curriculum, che le persone oggi nel mondo che hanno più bisogno di un background etico, sono le persone nei dipartimenti di informatica. Quindi dovrebbe essere parte integrante del curriculum. E anche nelle grandi corporazioni, che stanno progettando questi strumenti, dovrebbero essere incorporati all’interno dei team, persone con background in cose come l’etica, come la politica, che pensano sempre in termini di quali pregiudizi potremmo inavvertitamente costruire nel nostro sistema? Quali potrebbero essere le implicazioni culturali o politiche di ciò che stiamo costruendo? Non dovrebbe essere una specie di ripensamento che si crea questo gadget tecnico pulito, va nel mondo, succede qualcosa di brutto, e poi si inizia a pensare: “Oh, non l’abbiamo visto arrivare. Cosa facciamo adesso? “Fin dall’inizio, dovrebbe essere chiaro che questo è parte del processo.

FL: Voglio dare un grido a Rob Reich, che ha presentato l’intero evento. Lui e i miei colleghi, Mehran Sahami e alcuni altri professori di Stanford hanno aperto questo corso chiamato Computer, Etica e Politica pubblica. Questo è esattamente il tipo di classe che è necessario. Penso che questo trimestre l’offerta abbia più di 300 studenti iscritti per quello.

“Dovremmo concentrarci sulla tecnologia che ha una comprensione più sfumata dell’intelligenza umana”.

FEI-FEI LI

NT: fantastico. Vorrei che quel corso esistesse quando ero studente qui. Permettimi di fare una domanda eccellente da parte del pubblico che si collega a questo. Come concilia i compromessi inerenti tra la spiegabilità, l’efficacia e l’accuratezza degli algoritmi?

FL: Ottima domanda. Questa domanda sembra presumere se puoi spiegare che sei meno buono o meno preciso?

NT:Bene, puoi immaginare che se richiedi spiegabilità, perdi un certo livello di efficienza, stai aggiungendo un po ‘di complessità all’algoritmo. Quindi, okay, prima di tutto, non ci credo necessariamente. Non c’è logica matematica a questa ipotesi. Secondo, supponiamo che ci sia una possibilità che un algoritmo spiegabile soffra di efficienza. Penso che questa sia una decisione della società che dobbiamo prendere. Sai, quando mettiamo la cintura di sicurezza nella nostra macchina, è un po ‘una perdita di efficienza perché devo fare il movimento della cintura di sicurezza invece di saltare e guidare. Ma come società, abbiamo deciso che possiamo permetterci quella perdita di efficienza perché ci preoccupiamo di più della sicurezza umana. Quindi penso che l’intelligenza artificiale sia lo stesso tipo di tecnologia. Mentre prendiamo questo tipo di decisioni andando avanti nelle nostre soluzioni, nei nostri prodotti,

NT: Quindi Yuval, lascia che ti chieda le conseguenze globali di questo. Questo è qualcosa che un certo numero di persone ha chiesto in diversi modi e che abbiamo toccato, ma non ci siamo messi a testa. Ci sono due paesi, immagina di avere il Paese A e di avere il Paese B. Il Paese A dice tutti i tuoi ingegneri dell’IA, devi renderlo spiegabile. Devi prendere lezioni di etica, devi davvero pensare alle conseguenze e cosa stai facendo. Devi cenare con i biologi, devi pensare all’amore, e devi leggere John Locke, questo è il Paese A. Il Paese B dice, vai a costruire qualcosa, giusto? Questi due paesi a un certo punto entreranno in conflitto, e intendo dire che la tecnologia del Paese B potrebbe essere in vantaggio rispetto alla nazione A. È una preoccupazione?

YNH:Sì, è sempre la preoccupazione delle corse agli armamenti, che diventano una corsa verso il basso in nome dell’efficienza e del dominio. Voglio dire, ciò che è estremamente problematico o pericoloso per la situazione ora con l’intelligenza artificiale, è che sempre più paesi si stanno rendendo conto che questa potrebbe essere la tecnologia del dominio nel 21 ° secolo. Quindi non stai parlando di una qualsiasi competizione economica tra le diverse industrie tessili o anche tra le diverse industrie petrolifere, come se un paese decidesse di non preoccuparci affatto dell’ambiente, andremo avanti a tutto gas e l’altro i paesi sono molto più attenti all’ambiente. La situazione con l’intelligenza artificiale è potenzialmente molto peggiore, perché potrebbe essere davvero la tecnologia del dominio nel 21 ° secolo. E quelli rimasti indietro potrebbero essere dominati, sfruttati, conquistato da coloro che avanzano. Quindi nessuno vuole restare indietro. E penso che l’unico modo per evitare che questo tipo di catastrofica corsa agli armamenti arrivi verso il basso è una maggiore cooperazione globale intorno all’IA. Ora, questo sembra utopico perché ora ci stiamo muovendo esattamente nella direzione opposta di sempre più rivalità e competizione. Ma questo fa parte, credo, del nostro lavoro, come con la corsa agli armamenti nucleari, per far capire alle persone di diversi paesi che questa è una corsa agli armamenti, che chiunque vince, l’umanità perde. Ed è lo stesso con l’intelligenza artificiale. Se l’intelligenza artificiale diventa una corsa agli armamenti, allora questa è una brutta notizia per tutti gli umani. Ed è facile, per esempio, che negli Stati Uniti si dica che siamo i bravi ragazzi in questa gara, dovresti tifare per noi. Ma questo sta diventando sempre più difficile in una situazione in cui il motto del giorno è America First. Come possiamo avere fiducia negli Stati Uniti come leader nella tecnologia dell’IA, se alla fine servirà solo gli interessi americani e il dominio economico e politico americano? Quindi penso che, la maggior parte delle persone quando pensano che gli armamenti correvano nell’intelligenza artificiale, pensano negli USA contro la Cina, ma ci sono quasi 200 altri paesi nel mondo. E la maggior parte di loro sono lontani, molto indietro. E quando guardano cosa sta succedendo, sono sempre più terrorizzati. E per un’ottima ragione.

NT: L’esempio storico che hai realizzato è un po ‘inquietante. Perché, se ho sentito la tua risposta correttamente, è che abbiamo bisogno di una cooperazione globale. E se non lo facciamo, avremo bisogno di una corsa agli armamenti. Nell’effettiva corsa agli armamenti nucleari, abbiamo cercato una cooperazione globale da, non so, all’incirca dal 1945 al 1950. E poi ci siamo arresi e poi abbiamo detto, andiamo a tutto gas negli Stati Uniti. E poi, perché la guerra fredda è finita così? Chissà, ma uno degli argomenti sarebbe che gli Stati Uniti e la sua incessante accumulazione di armi nucleari hanno contribuito a mantenere la pace fino a quando l’Unione Sovietica non è crollata. Quindi, se questo è il parallelo, allora ciò che potrebbe accadere qui è che proveremo per la cooperazione globale e 2019, 2020 e 2021 e poi saremo fuori in una corsa agli armamenti. A, è così probabile e B, se lo è, diresti bene, allora gli Stati Uniti hanno bisogno di muoversi davvero a tutto gas sull’AI, perché sarà meglio per le democrazie liberali avere l’intelligenza artificiale rispetto agli stati totalitari?

YNH:Beh, temo che sia molto probabile che la cooperazione fallisca e ci troveremo in una versione estrema di una corsa agli armamenti. E in un certo senso è peggio della corsa agli armamenti nucleari perché con le armi nucleari, almeno fino ad oggi, i paesi li hanno sviluppati, ma non li usano mai. L’intelligenza artificiale sarà usata sempre. Non è qualcosa che hai sullo scaffale per una guerra di Doomsday. Sarà usato continuamente per creare regimi di sorveglianza potenzialmente totali e sistemi totalitari estremi, in un modo o nell’altro. E così, da questa prospettiva, penso che il pericolo sia molto più grande. Potresti dire che la corsa agli armamenti nucleari ha effettivamente salvato la democrazia e il libero mercato e, sai, il rock and roll e Woodstock e poi gli hippy e tutti devono un enorme debito alle armi nucleari. Perché se le armi nucleari non sono state inventate, ci sarebbe stata una corsa agli armamenti convenzionale e un accumulo militare convenzionale tra il blocco sovietico e il blocco americano. E ciò avrebbe significato la totale mobilitazione della società. Se i sovietici stanno avendo la mobilitazione totale, l’unico modo in cui gli americani possono competere è quello di fare lo stesso.

Ora quello che è successo in realtà è che hai avuto una società estremamente totalitaria e mobilitata nel blocco comunista. Ma grazie alle armi nucleari, non dovevi farlo negli Stati Uniti o nella Germania occidentale, o in Francia, perché facevamo affidamento sulle armi nucleari. Non hai bisogno di milioni di coscritti nell’esercito.

E con l’intelligenza artificiale sarà esattamente l’opposto, che la tecnologia non solo si svilupperà, ma sarà utilizzata in ogni momento. E questo è uno scenario molto spaventoso.

FL: Aspetta, posso aggiungere solo una cosa? Non conosco la storia come fai tu, ma hai detto che l’intelligenza artificiale è diversa dalla tecnologia nucleare. Voglio sottolineare, è molto diverso perché nello stesso momento in cui parli di queste situazioni più spaventose, questa tecnologia ha una vasta collaborazione scientifica internazionale che viene utilizzata per migliorare il trasporto, migliorare l’assistenza sanitaria, migliorare l’istruzione . E quindi è un nuovo periodo molto interessante che non abbiamo mai visto prima, perché mentre abbiamo questo tipo di competizione, abbiamo anche una massiccia collaborazione internazionale di comunità scientifiche su questi usi benevoli e sulla democratizzazione di questa tecnologia. Penso solo che sia importante vedere entrambi i lati di questo.

YNH: Hai assolutamente ragione qui. Ci sono alcuni, come ho detto, anche gli enormi vantaggi di questa tecnologia.

FL: E in un modo collaborativo a livello globale, specialmente tra e tra gli scienziati.

YNH: L’aspetto globale è più complicato, perché la domanda è: cosa succede se c’è un’enorme differenza nelle abilità tra alcuni paesi e la maggior parte del mondo? Avremmo una replica della rivoluzione industriale del diciannovesimo secolo quando le poche potenze industriali conquistano e dominano e sfruttano il mondo intero, sia economicamente che politicamente? Cosa impedirà di ripetere? Quindi, anche in termini di, sapete, senza questo pauroso scenario di guerra, potremmo ancora trovarci con un regime di sfruttamento globale, in cui i benefici, la maggior parte dei benefici, vanno in un piccolo numero di paesi a scapito di tutti gli altri.

FL: Quindi gli studenti tra il pubblico rideranno di questo, ma siamo in un clima di ricerca scientifica molto diverso. Il tipo di globalizzazione della tecnologia e della tecnica avviene in un modo che il 19 ° secolo, anche il 20 ° secolo, non ha mai visto prima. Qualsiasi documento che è un documento di ricerca scientifica di base in AI oggi o tecnica tecnica che viene prodotta, diciamo questa settimana a Stanford, è facilmente distribuito a livello globale attraverso questa cosa chiamata repository arXiv o GitHub o-

YNH: L’informazione è là fuori. Si.

FL: La globalizzazione di questa tecnologia scientifica viaggia in modo diverso dal diciannovesimo e ventesimo secolo. Non dubito che ci sia uno sviluppo limitato di questa tecnologia, forse da parte dei regimi. Ma dobbiamo riconoscere che questa portata globale, le differenze sono piuttosto marcate ora. E potremmo aver bisogno di tenerne conto. Che lo scenario che stai descrivendo è più difficile, non sto dicendo impossibile, ma più difficile da realizzare.

YNH:Dirò solo che non sono solo i documenti scientifici. Sì, i documenti scientifici ci sono. Ma se vivo nello Yemen, o in Nicaragua, o in Indonesia o a Gaza, sì, posso connettermi a internet e scaricare la carta. Cosa farò con quello? Non ho i dati, non ho l’infrastruttura. Voglio dire, tu guardi da dove arrivano le grandi corporazioni, che detengono tutti i dati del mondo, in sostanza provengono da due soli posti. Voglio dire, anche l’Europa non è davvero nella competizione. Non esiste Google europeo, o Amazon europeo, o Baidu europeo, di Tencent europeo. E se guardi oltre l’Europa, pensi all’America Centrale, pensi alla maggior parte dell’Africa, del Medio Oriente, di gran parte del Sud-Est asiatico, è, sì, la conoscenza scientifica di base è là fuori, ma questo è solo uno dei componenti che vanno a creare qualcosa che può competere con Amazon o con Tencent, o con le capacità di governi come il governo degli Stati Uniti o come il governo cinese. Quindi sono d’accordo che la diffusione delle informazioni e le conoscenze scientifiche di base si trovano in un posto completamente diverso rispetto al 19 ° secolo.

NT: Lascia che te lo chieda, perché è qualcosa che tre o quattro persone hanno posto nelle domande, cioè, sembra che potrebbe esserci una forza centralizzante dell’intelligenza artificiale che renderà più potente chiunque abbia i dati e il miglior computer e potrebbe quindi accentuare la disuguaglianza di reddito, sia all’interno dei paesi che all’interno del mondo, giusto? Potete immaginare i paesi che avete appena menzionato, gli Stati Uniti, la Cina, l’Europa in ritardo, il Canada da qualche parte dietro, molto più avanti dell’America Centrale, potrebbe accentuare la disuguaglianza del reddito globale. A, pensi che sia probabile e B, quanto ti preoccupa?

YNH:Come ho già detto, è molto probabile che stia già succedendo. Ed è estremamente pericoloso. Perché le conseguenze economiche e politiche potrebbero essere catastrofiche. Stiamo parlando del potenziale collasso di intere economie e paesi, paesi che dipendono dal lavoro manuale a basso costo, e semplicemente non hanno il capitale educativo per competere in un mondo di intelligenza artificiale. Quindi cosa faranno questi paesi? Voglio dire, se, per esempio, si sposta indietro la maggior parte della produzione, per esempio, dell’Honduras o del Bangladesh negli Stati Uniti e in Germania, perché i salari umani non fanno più parte dell’equazione ed è più economico produrre la maglia in California che in Honduras, quindi cosa faranno le persone lì? E puoi dire, ok, ma ci saranno molti altri lavori per gli ingegneri del software. Ma non stiamo insegnando ai bambini in Honduras a diventare ingegneri del software. Quindi forse alcuni di loro potrebbero in qualche modo emigrare negli Stati Uniti. Ma la maggior parte di loro non lo farà e cosa faranno? E noi, al momento, non abbiamo le risposte economiche e le risposte politiche a queste domande.

FL:Penso che sia abbastanza giusto, penso che Yuval abbia sicuramente esposto alcune delle trappole critiche di questo e, ed è per questo che abbiamo bisogno di più persone per studiare e pensare a questo. Una delle cose che abbiamo ripetutamente notato, anche in questo processo di costruzione della comunità di intelligenza umana centrata sull’uomo e anche di parlare con le persone sia internamente che esternamente, è che ci sono opportunità per le aziende di tutto il mondo e governi in tutto il mondo di pensare sui loro dati e sulla strategia di IA. Ci sono ancora molte opportunità al di fuori dei grandi attori, in termini di aziende e paesi, per arrivare veramente alla consapevolezza che è un momento importante per il loro paese, per la loro regione, per il loro business, per trasformarsi in questa era digitale.

YNH:Sì, penso che sia molto urgente. Voglio dire, quello che stiamo vedendo in questo momento è, da un lato, quello che potresti chiamare una sorta di colonizzazione dei dati, quello stesso modello che abbiamo visto nel 19 ° secolo che hai l’hub imperiale, dove hanno avanzato tecnologia, coltivano il cotone in India o in Egitto, inviano le materie prime alla Gran Bretagna, producono le camicie, l’industria high tech del 19 ° secolo a Manchester, e rimandano le magliette per venderle in India e superano le produttori locali. E, in un certo senso, potremmo cominciare a vedere la stessa cosa ora con l’economia dei dati, che raccolgono i dati anche in luoghi come Brasile e Indonesia, ma non li elaborano lì. I dati dal Brasile e dall’Indonesia, vanno in California o vanno in Cina orientale in lavorazione lì.

Ora non è un one-to-one. Non è la stessa cosa, ci sono differenze. Ma penso che dobbiamo tenere a mente questa analogia. E un’altra cosa che forse dobbiamo tenere a mente in questo senso, penso, è il riemergere dei muri di pietra: in origine la mia specialità era la storia militare medievale. È così che ho iniziato la mia carriera accademica con le Crociate e castelli e cavalieri e così via. E ora sto facendo tutti questi cyborg e cose dell’IA. Ma all’improvviso, c’è qualcosa che conosco da allora, i muri stanno tornando. Provo a guardare cosa sta succedendo qui. Voglio dire, abbiamo realtà virtuali. Abbiamo 3G, IA e all’improvviso il problema politico più importante è la costruzione di un muro di pietra. Come la cosa più low-tech che puoi immaginare. E qual è il significato di un muro di pietra in un mondo di interconnessione e tutto il resto? E mi spaventa davvero che ci sia qualcosa di molto sinistro lì. La combinazione di dati scorre così ovunque in giro così facilmente, ma sempre più paesi e anche il mio paese d’Israele, è la stessa cosa. Hai la, la nazione di avvio, e poi il muro. E cosa significa questa combinazione?

NT: Fei-Fei, vuoi rispondere?

FL: Forse possiamo guardare alla prossima domanda!

NT: sai cosa? Andiamo alla prossima domanda, che è legata a quello. E la prossima domanda è: tu hai la gente qui a Stanford che aiuterà a costruire queste compagnie, che seguiranno il processo di colonizzazione dei dati, o la invertiranno o chi costruirà, sai, gli sforzi per creare un muro virtuale e il mondo basato sull’intelligenza artificiale viene creato o finanziato almeno da un laureato a Stanford. Quindi hai tutti questi studenti qui nella stanza, come vuoi che pensino all’intelligenza artificiale? E cosa vuoi che imparino? Passiamo gli ultimi 10 minuti di questa conversazione parlando di ciò che dovrebbero fare tutti qui.

FL: Quindi se sei uno studente di informatica o di ingegneria, prendi la lezione di Rob. Se tu sei un umanista, prendi la mia lezione. E tutti voi leggete i libri di Yuval.

NT: I suoi libri sono sul tuo programma?

FL:Non sul mio. Scusate! Insegno l’apprendimento profondo dell’hardcore. Il suo libro non ha equazioni. Ma seriamente, quello che intendevo dire è che gli studenti di Stanford, hai una grande opportunità. Abbiamo una storia orgogliosa di dare vita a questa tecnologia. Stanford era in prima linea nella nascita dell’IA. In effetti, il nostro professore John McCarthy ha coniato il termine intelligenza artificiale e si è recato a Stanford nel 1963 e ha dato vita a questo paese, uno dei due più antichi laboratori di intelligenza artificiale di questo paese. E da allora, la ricerca di intelligenza artificiale di Stanford è stata in prima linea in ogni ondata di cambiamenti di intelligenza artificiale. E nel 2019 siamo anche in prima linea nell’avviare la rivoluzione dell’IA centrata sull’uomo o nella scrittura del nuovo capitolo di IA. E abbiamo fatto tutto questo negli ultimi 60 anni per voi ragazzi, per le persone che vengono attraverso la porta e che si diplomeranno e diventeranno praticanti, leader, e parte della società civile e questo è davvero ciò che la linea di fondo è. L’IA centrata sull’uomo deve essere scritta dalla prossima generazione di tecnologi che hanno preso lezioni come la classe di Rob, per riflettere sulle implicazioni etiche, il benessere umano. E sarà anche scritto da quei potenziali futuri politici che sono venuti fuori dagli studi umanistici e dalla Business School di Stanford, che sono esperti nei dettagli della tecnologia, che comprendono le implicazioni di questa tecnologia e che hanno la capacità di comunicare con tecnologi. Cioè, non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader multilingue, pensatori e professionisti. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford. s davvero quello che la linea di fondo è circa. L’IA centrata sull’uomo deve essere scritta dalla prossima generazione di tecnologi che hanno preso lezioni come la classe di Rob, per riflettere sulle implicazioni etiche, il benessere umano. E sarà anche scritto da quei potenziali futuri politici che sono venuti fuori dagli studi umanistici e dalla Business School di Stanford, che sono esperti nei dettagli della tecnologia, che comprendono le implicazioni di questa tecnologia e che hanno la capacità di comunicare con tecnologi. Cioè, non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader multilingue, pensatori e professionisti. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford. s davvero quello che la linea di fondo è circa. L’IA centrata sull’uomo deve essere scritta dalla prossima generazione di tecnologi che hanno preso lezioni come la classe di Rob, per riflettere sulle implicazioni etiche, il benessere umano. E sarà anche scritto da quei potenziali futuri politici che sono venuti fuori dagli studi umanistici e dalla Business School di Stanford, che sono esperti nei dettagli della tecnologia, che comprendono le implicazioni di questa tecnologia e che hanno la capacità di comunicare con tecnologi. Cioè, non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader multilingue, pensatori e professionisti. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford. L’IA centrata sull’uomo deve essere scritta dalla prossima generazione di tecnologi che hanno preso lezioni come la classe di Rob, per riflettere sulle implicazioni etiche, il benessere umano. E sarà anche scritto da quei potenziali futuri politici che sono venuti fuori dagli studi umanistici e dalla Business School di Stanford, che sono esperti nei dettagli della tecnologia, che comprendono le implicazioni di questa tecnologia e che hanno la capacità di comunicare con tecnologi. Cioè, non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader multilingue, pensatori e professionisti. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford. L’IA centrata sull’uomo deve essere scritta dalla prossima generazione di tecnologi che hanno preso lezioni come la classe di Rob, per riflettere sulle implicazioni etiche, il benessere umano. E sarà anche scritto da quei potenziali futuri politici che sono venuti fuori dagli studi umanistici e dalla Business School di Stanford, che sono esperti nei dettagli della tecnologia, che comprendono le implicazioni di questa tecnologia e che hanno la capacità di comunicare con tecnologi. Cioè, non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader multilingue, pensatori e professionisti. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford. Saranno scritti anche da quei potenziali futuri politici che sono venuti fuori dagli studi umanistici e dalla Business School di Stanford, che sono esperti nei dettagli della tecnologia, che comprendono le implicazioni di questa tecnologia e che hanno la capacità di comunicare con i tecnologi . Cioè, non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader multilingue, pensatori e professionisti. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford. Saranno scritti anche da quei potenziali futuri politici che sono venuti fuori dagli studi umanistici e dalla Business School di Stanford, che sono esperti nei dettagli della tecnologia, che comprendono le implicazioni di questa tecnologia e che hanno la capacità di comunicare con i tecnologi . Cioè, non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader multilingue, pensatori e professionisti. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford. non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader e pensatori e professionisti multilingue. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford. non importa quanto siamo d’accordo e in disaccordo, questa è la linea di fondo, è che abbiamo bisogno di questo tipo di leader e pensatori e professionisti multilingue. E questo è ciò di cui parla l’istituto di intelligenza artificiale di Stanford.

NT: Yuval, come rispondi a questa domanda?

YNH:A livello individuale, penso che sia importante per ogni individuo, sia a Stanford, sia che sia un ingegnere o meno, conoscere meglio te stesso, perché ora sei in una competizione. È il consiglio più antico in tutti i libri di filosofia è conoscere te stesso. L’abbiamo sentito da Socrate, da Confucio, dal Buddha: conosci te stesso. Ma c’è una differenza, che è che ora hai la concorrenza. Nel giorno di Socrate o Buddha, se non hai fatto lo sforzo, okay, così ti sei perso l’illuminazione. Ma comunque, il re non era in competizione con te. Non avevano la tecnologia. Ora hai una competizione. Stai gareggiando contro queste gigantesche corporazioni e governi. Se ti conoscono meglio di quanto tu sappia, il gioco è finito. Quindi hai bisogno di comprarti un po ‘di tempo e il primo modo per comprarti un po’ di tempo è conoscerti meglio, e poi hanno più terreno da trattare. Per ingegneri e studenti, direi – mi concentrerò su di esso sugli ingegneri – le due cose che mi piacerebbe vedere uscire dai laboratori e dai dipartimenti di ingegneria, in primo luogo, sono gli strumenti che funzionano intrinsecamente meglio in un ambiente decentralizzato sistema piuttosto che in un sistema centralizzato. Non so come farlo Ma spero che questo sia qualcosa su cui gli ingegneri possono lavorare. l’ho sentito strumenti che funzionano intrinsecamente meglio in un sistema decentralizzato che in un sistema centralizzato. Non so come farlo Ma spero che questo sia qualcosa su cui gli ingegneri possono lavorare. l’ho sentito strumenti che funzionano intrinsecamente meglio in un sistema decentralizzato che in un sistema centralizzato. Non so come farlo Ma spero che questo sia qualcosa su cui gli ingegneri possono lavorare. l’ho sentitoblockchain è come la grande promessa in quell’area, non lo so. Ma qualunque cosa sia, quando inizi a progettare lo strumento, parte delle specifiche di come dovrebbe essere questo strumento, direi, questo strumento dovrebbe funzionare meglio in un sistema decentralizzato che in un sistema centralizzato. Questa è la migliore difesa della democrazia.

NT: Non voglio interromperti, perché voglio che tu arrivi alla seconda cosa. Ma come fai a far funzionare meglio uno strumento in una democrazia?

YNH: Non sono un ingegnere, non lo so.

NT: Ok. Vai alla seconda parte. Qualcuno in questa stanza, capiscilo, perché è molto importante.

YNH: E posso darti esempi storici di strumenti che funzionano meglio in questo modo o in quel modo. Ma non so come tradurlo nella tecnologia attuale.

NT: Vai alla seconda parte perché ho ricevuto qualche altra domanda dal pubblico.

YNH:Ok, quindi l’altra cosa che mi piacerebbe vedere è un compagno di AI che mi serve e non qualche società o governo. Voglio dire, non possiamo fermare il progresso di questo tipo di tecnologia, ma mi piacerebbe vederlo servire a me. Quindi sì, mi può hackerare ma mi ha hackerato per proteggermi. Come se il mio computer avesse un antivirus, ma per il cervello no. Ha un antivirus biologico contro l’influenza o altro, ma non contro hacker e troll e così via. Quindi, un progetto su cui lavorare è creare un assistente AI, che ho pagato, forse un sacco di soldi e mi appartiene, e mi segue e mi controlla e cosa faccio nelle mie interazioni, ma tutto ciò che apprende impara per proteggermi dalla manipolazione di altre IA, da altri influencer esterni. Quindi questo è qualcosa che penso con la tecnologia attuale,

FL: Non per entrare in termini tecnici, ma penso che tu pensi che ti sentirai sicuro di sapere che gli sforzi nascenti in questo tipo di ricerca stanno accadendo, sai, IA affidabile, IA spiegabile, IA motivata alla sicurezza o consapevole. Quindi non sto dicendo che abbiamo la soluzione, ma molti tecnologi in tutto il mondo stanno pensando lungo quella linea e stanno cercando di farlo accadere.

YNH: Non è che voglio un’IA che appartenga a Google o al governo di cui mi possa fidare. Voglio un’intelligenza artificiale che sono il suo padrone. Mi sta servendo.

NT: Ed è potente, è più potente della mia IA perché altrimenti la mia IA potrebbe manipolare la tua IA.

YNH: Avrà il vantaggio intrinseco di conoscermi molto bene. Quindi potrebbe non essere in grado di hackerarti. Ma poiché mi segue e ha accesso a tutto ciò che faccio e così via, dà un vantaggio in questo specifico regno di me. Quindi questa è una specie di contrappeso al pericolo che le persone –

FL: Ma anche questo avrebbe molte sfide nella loro società. Chi è responsabile, sei responsabile delle tue azioni o del tuo compagno?

YNH: Questa sarà una domanda sempre più difficile con cui dovremo confrontarci.

NT: Va bene Fei-Fei, passiamo rapidamente a un paio di domande. Spesso parliamo di IA dall’alto verso il basso da parte delle grandi aziende, come dovremmo progettare l’IA personale per accelerare le nostre vite e carriere? Il modo in cui interpreto quella domanda è che gran parte dell’IA viene svolta nelle grandi aziende. Se vuoi avere l’intelligenza artificiale in una piccola azienda o personalmente, puoi farlo?

FL: Bene, prima di tutto, una delle soluzioni è ciò che Yuval ha appena detto.

NT: Probabilmente quelle cose sono state costruite da Facebook.

FL:Quindi, prima di tutto, è vero, ci sono molti investimenti, risorse e risorse che mettono grandi aziende nella ricerca e nello sviluppo dell’intelligenza artificiale, ma non è che tutta l’intelligenza artificiale stia accadendo lì. Voglio dire che il mondo accademico continua a svolgere un ruolo enorme nella ricerca e nello sviluppo dell’IA, specialmente nell’esplorazione a lungo termine dell’IA. E cos’è il mondo accademico? Academia è una rete mondiale di singoli studenti e professori che pensano in modo molto indipendente e creativo su idee diverse. Quindi da questo punto di vista, è un tipo di sforzo molto popolare nella ricerca di intelligenza artificiale che continua ad accadere. Anche le piccole imprese e gli istituti di ricerca indipendenti hanno un ruolo da svolgere. Ci sono molti set di dati disponibili al pubblico. È una comunità globale molto aperta a condividere e diffondere conoscenza e tecnologia. Quindi sì, per favore,

NT: Va bene, ecco la mia domanda preferita. Questo è da anonimo, purtroppo. Se sono in terza media, devo ancora studiare?

FL: Come mamma, ti dirò di si. Torna ai tuoi compiti.

NT: . Va bene Fei-Fei, di cosa vuoi parlare il prossimo libro di Yuval?

FL: Wow, ho bisogno di pensarci.

NT: Va bene. Bene, mentre ci pensi, Yuval, quale area di apprendimento automatico vuoi che Fei-Fei insegua?

FL: il progetto sidekick.

YNH: Sì, voglio dire, proprio quello che ho detto. Possiamo creare il tipo di intelligenza artificiale che può servire le singole persone, e non una sorta di grande rete? Voglio dire, è possibile? O c’è qualcosa nella natura dell’IA, che inevitabilmente porterà sempre a qualche tipo di effetto di rete, e il vincitore prende tutto e così via.

FL: Ok, il suo prossimo libro sarà un libro di fantascienza tra te e il tuo compagno.

NT: Bene, un’ultima domanda per Yuval, perché abbiamo la domanda più votata. Senza la fiducia nel libero arbitrio, cosa ti sveglia la mattina?

YNH: Senza la fede nel libero arbitrio? Non penso che sia la domanda … Voglio dire, è molto interessante, molto centrale, è stata centrale nella civiltà occidentale a causa di una sorta di errore fondamentalmente teologico fatto migliaia di anni fa. Ma in realtà è un fraintendimento della condizione umana.

La vera domanda è: come ti liberi dalla sofferenza? E uno dei passi più importanti in questa direzione è conoscerti meglio. Per me, il problema più grande è stata la credenza nel libero arbitrio, è che rende le persone incuranti su se stessi e su ciò che sta realmente accadendo dentro di loro perché fondamentalmente dicono: “So tutto. So perché prendo le decisioni, questo è il mio libero arbitrio. “E si identificano con qualsiasi pensiero o emozione si manifestino nella loro mente perché questo è il mio libero arbitrio. E questo li rende molto inconsistenti per ciò che sta realmente accadendo all’interno e quali sono anche le profonde fonti della miseria nelle loro vite. E quindi questo è ciò che mi fa svegliare al mattino, per cercare di capire meglio me stesso per cercare di capire meglio la condizione umana. E il libero arbitrio è irrilevante per quello.

NT: E se perdiamo il tuo compagno e ti alzi al mattino. Fei-Fei, 75 minuti fa, hai detto che non avremmo raggiunto conclusioni. Pensi che siamo arrivati ​​da qualche parte?

FL: Bene, abbiamo aperto il dialogo tra l’umanista e il tecnologo e voglio vedere di più.

NT: fantastico. Grazie mille. Grazie, Fei Fei. Grazie, Yuval. meraviglioso essere qui

Di ihal