Possiamo considerare il nostro tempo come il momento in cui la civiltà è stata trasformata, come avvenne con il fuoco, l’agricoltura e l’elettricità. Nel 2023 abbiamo appreso che una macchina si è insegnata da sola come parlare con gli esseri umani come se fosse un suo pari, con creatività, verità, errori e bugie. La tecnologia, nota come chatbot, è solo una delle ultime innovazioni nell’intelligenza artificiale, ossia macchine che possono insegnarsi da sole abilità sovrumane. Abbiamo esplorato ciò che sta arrivando in futuro da Google, un leader in questo nuovo mondo. Il CEO Sundar Pichai ci ha detto che l’intelligenza artificiale sarà buona o cattiva in base alla natura umana. La rivoluzione, a suo dire, sta arrivando più velocemente di quanto si pensi.

Scott Pelley: Pensa che la società sia pronta per ciò che sta arrivando?

Sundar Pichai: Sai, ci sono due modi in cui ci penso. Da una parte mi sembra di no, perché la velocità con cui le istituzioni sociali possono pensare e adattarsi, rispetto alla velocità con cui la tecnologia sta evolvendo, sembra esserci uno squilibrio. D’altra parte, rispetto a qualsiasi altra tecnologia, ho visto molte persone preoccuparsi in anticipo durante il suo ciclo di vita. Quindi sono ottimista. Il numero di persone che si sono preoccupate delle implicazioni, e quindi i dibattiti stanno iniziando in modo serio.

Le nostre conversazioni con Sundar Pichai, 50 anni, sono iniziate nel nuovo campus di Google a Mountain View, in California. Funziona al 40% con energia solare e raccoglie più acqua di quanta ne usi – una tecnologia che Pichai non avrebbe potuto immaginare crescendo in India senza telefono a casa.

Sundar Pichai: Eravamo in lista d’attesa per avere un telefono rotativo per circa cinque anni. È finalmente arrivato a casa mia e me lo ricordo ancora vividamente. Ha cambiato la nostra vita. Per me è stato il primo momento in cui ho capito il potere di ciò che significa avere accesso alla tecnologia e quindi mi ha probabilmente portato a fare ciò che faccio oggi.

Ciò che sta facendo, dal 2019, è guidare sia Google che la sua azienda madre, Alphabet, valutata 1,3 trilioni di dollari. In tutto il mondo, Google gestisce il 90% delle ricerche su internet e il 70% degli smartphone. Ma la sua predominanza è stata attaccata lo scorso febbraio quando Microsoft ha presentato il suo nuovo chatbot. In una corsa alla dominanza dell’intelligenza artificiale, Google ha appena lanciato la sua versione chiamata Bard.

Sissie Hsiao: È qui per aiutarti a generare idee, a creare contenuti come discorsi, post di blog o e-mail.

Ci è stato presentato Bard dal vicepresidente di Google Sissie Hsiao e dal vicepresidente senior James Manyika. La prima cosa che abbiamo imparato è che Bard non cerca

le risposte su internet come fa la ricerca di Google. Le risposte di Bard provengono da un programma auto-contenuto che si è per lo più insegnato da solo – la nostra esperienza è stata inquietante.

Scott Pelley: Confondente, assolutamente confondente.

Bard sembrava possedere la somma della conoscenza umana…

…con microchip più di 100.000 volte più veloci del cervello umano. Gli abbiamo chiesto di riassumere il Nuovo Testamento. Lo ha fatto in cinque secondi e 17 parole. Gli abbiamo chiesto di farlo in latino – ci sono voluti altri quattro secondi. Poi abbiamo giocato con una famosa storia breve di sei parole, spesso attribuita a Hemingway.

Scott Pelley: In vendita. Scarpe da bambino. Mai usate.

L’unica indicazione che abbiamo dato è stata “finisci questa storia”. In cinque secondi…

Scott Pelley: Santo cielo! Le scarpe erano un regalo di mia moglie, ma non abbiamo mai avuto un bambino…

Da questa breve indicazione di sei parole, Bard ha creato una storia umana profonda con personaggi inventati – tra cui un uomo la cui moglie non poteva concepire e uno sconosciuto in lutto dopo un aborto spontaneo, che cercava una conclusione.

Scott Pelley: Sono raramente senza parole. Non so cosa farne. Dammi quella storia…

Gli abbiamo chiesto di scriverla in versi. In cinque secondi, c’era una poesia scritta da una macchina con un’insight mozzafiato sul mistero della fede: Bard ha scritto “lei sapeva che l’anima del suo bambino sarebbe sempre viva”. L’umanità, a velocità sovrumana, è stata uno shock.

Scott Pelley: Come è possibile?

James Manyika ci ha detto che in diversi mesi Bard ha letto quasi tutto su internet e ha creato un modello di come appare il linguaggio. Invece di cercare, le sue risposte provengono da questo modello linguistico.

James Manyika: Quindi, ad esempio, se ti dicessi, Scott, burro di arachidi e?

Scott Pelley: Marmellata.

James Manyika: Giusto. Quindi, cerca e impara a prevedere, ok, il burro di arachidi è di solito seguito dalla marmellata. Cerca di prevedere le parole successive più probabili, basandosi su tutto ciò che ha imparato. Quindi, non sta cercando informazioni, sta solo prevedendo la parola successiva.

Ma non sembra così. Abbiamo chiesto a Bard perché aiuta le persone e ha risposto: “perché mi fa felice”.

Scott Pelley: Bard, ai miei occhi, sembra pensare. Sembra fare giudizi. Non è quello che sta succedendo? Queste macchine non sono senzienti. Non sono consapevoli di se stesse.

James Manyika: Non sono senzienti. Non sono consapevoli di sé stesse. Possono mostrare comportamenti che sembrano tali. Tieni presente che hanno imparato da noi. Siamo esseri senzienti. Abbiamo sentimenti

, emozioni, idee, pensieri, prospettive. Abbiamo riflettuto su tutto ciò in libri, romanzi, opere di finzione. Quindi, quando imparano da questo, costruiscono schemi da questo. Quindi, non mi sorprende che a volte il comportamento esibito sembri che ci sia qualcuno dietro di esso. Non c’è nessuno lì. Questi non sono esseri senzienti.

James Manyika, nato in Zimbabwe e formatosi ad Oxford, ha una nuova posizione in Google: il suo lavoro consiste nel pensare a come l’AI e l’umanità possano coesistere al meglio.

James Manyika: L’AI ha il potenziale per cambiare molti modi in cui abbiamo pensato alla società, a ciò che siamo in grado di fare, ai problemi che possiamo risolvere.

Ma l’AI stessa porrà i suoi problemi. Potrebbe Hemingway scrivere una storia breve migliore? Forse. Ma Bard può scriverne un milione prima che Hemingway ne finisca una. Immagina quel livello di automazione in tutta l’economia.

Scott Pelley: Molte persone possono essere sostituite da questa tecnologia.

James Manyika: Sì, ci sono alcune occupazioni che cominceranno a declinare nel tempo. Ci sono anche nuove categorie di lavoro che cresceranno nel tempo. Ma il cambiamento più grande riguarderà i lavori che cambieranno. Più di due terzi avranno una definizione diversa. Non spariranno, ma cambieranno, perché ora vengono assistiti da AI e automazione. Quindi, questo è un cambiamento profondo che ha implicazioni per le competenze. Come assistiamo le persone a sviluppare nuove competenze? A imparare a lavorare accanto alle macchine. E come si combinano queste competenze con ciò che le persone fanno oggi.

Sundar Pichai: Questo avrà un impatto su ogni prodotto in ogni azienda, ed è per questo che penso che sia una tecnologia molto, molto profonda. E quindi, siamo solo agli inizi.

Scott Pelley: Ogni prodotto in ogni azienda.

Sundar Pichai: Esatto. L’AI avrà un impatto su tutto. Quindi, ad esempio, potresti essere un radiologo. Sai, se penso a cinque o dieci anni da adesso, avrai un collaboratore di AI con te. Potrebbe fare la triage. Arrivi la mattina. Hai, diciamo, 100 cose da fare. Potrebbe dire: “Questi sono i casi più seri che devi guardare per primi”. O quando stai guardando qualcosa, potrebbe apparire e dire: “Potresti aver perso qualcosa di importante”. Perché non approfittiamo delle informazioni che abbiamo per essere migliori?

per aiutarti in tutto ciò che fai? Potresti essere uno studente che cerca di imparare matematica o storia. E, sai, avrai qualcosa che ti aiuta.

Abbiamo chiesto a Pichai quali lavori sarebbero stati interrotti, ha detto “i lavoratori della conoscenza”. Persone come scrittori, contabili, architetti e, ironicamente, ingegneri del software. L’AI scrive anche codice informatico.

Oggi Sundar Pichai cammina su una linea sottile. Alcuni dipendenti hanno lasciato l’azienda, alcuni credono che il rollout dell’AI di Google sia troppo lento, altri troppo veloce. Ci sono alcuni seri difetti. James Manyika ha chiesto a Bard dell’inflazione. Ha scritto un saggio istantaneo in economia e ha raccomandato cinque libri. Ma qualche giorno dopo, abbiamo verificato. Nessuno dei libri esiste realmente. Bard ha inventato i titoli. Questa caratteristica molto umana, l’errore con sicurezza, è chiamata, nell’industria, allucinazione.

Scott Pelley: Stai ricevendo molte allucinazioni?

Sundar Pichai: Sì, lo sai, è normale. Nessuno nel campo ha ancora risolto i problemi di allucinazione. Tutti i modelli hanno questo problema.

Scott Pelley: È un problema risolvibile?

Sundar Pichai: È oggetto di un intenso dibattito. Credo che faremo progressi.

Per aiutare a curare le allucinazioni, Bard presenta un pulsante “Google it” che porta a una ricerca vecchio stile. Google ha anche costruito filtri di sicurezza in Bard per filtrare cose come il discorso dell’odio e il pregiudizio.

Scott Pelley: Quanto è grande il rischio della diffusione di disinformazione?

Sundar Pichai: L’IA sfiderà questo problema in modo più profondo e la scala di questo problema sarà molto più grande.

Problemi più grandi, dice, con notizie false e immagini false.

Sundar Pichai: Sarà possibile con l’IA creare – sai, un video facilmente. Dove potrebbe essere Scott a dire qualcosa, o io a dire qualcosa, e non abbiamo mai detto quello. E potrebbe sembrare accurato. Ma sai, su una scala sociale, sai, può causare molti danni.

Scott Pelley: Bard è sicuro per la società?

Sundar Pichai: Nel modo in cui lo abbiamo lanciato oggi, come un esperimento in modo limitato, penso di sì. Ma tutti noi dobbiamo essere responsabili ad ogni passo lungo la strada.

Pichai ci ha detto di essere responsabile trattenendosi per ulteriori test, versioni avanzate di Bard, che, dice, possono ragionare, pianificare e connettersi alla ricerca su internet.

Scott Pelley: Lo stai lasciando uscire lentamente affinché la società possa abituarsi ad esso?

Sundar Pichai: Questo è un aspetto. Una parte è anche affinché possiamo avere il feedback dell’utente.

 

E possiamo sviluppare strati di sicurezza più robusti prima di costruire, prima di distribuire modelli più capaci.

Delle questioni di IA di cui abbiamo parlato, la più misteriosa è chiamata proprietà emergenti. Alcuni sistemi di IA si stanno insegnando autonomamente competenze che non ci si aspettava avessero. Come questo avviene non è ben compreso. Ad esempio, un programma AI di Google si è adattato da solo, dopo essere stato sollecitato nella lingua del Bangladesh, che non era stato addestrato a conoscere.

James Manyika: Abbiamo scoperto che con pochissimi solleciti in bengalese, ora può tradurre tutto il bengalese. Quindi ora, all’improvviso, abbiamo uno sforzo di ricerca in cui cerchiamo di arrivare a mille lingue.

Sundar Pichai: C’è un aspetto di questo che chiamiamo – tutti noi nel campo lo chiamiamo come “scatola nera”. Sai, non lo capisci completamente. E non puoi capire esattamente perché ha detto questo, o perché ha sbagliato. Abbiamo alcune idee, e la nostra capacità di capire questo migliora nel tempo. Ma lì sta lo stato dell’arte.

Scott Pelley: Non capisci completamente come funziona. Eppure, l’hai rilasciato nella società?

Sundar Pichai: Sì. Permettimi di dire questo. Non penso che comprendiamo completamente come funziona anche la mente umana.

Ci siamo chiesti se fosse stato da quella scatola nera che Bard ha tratto la sua breve storia che sembrava così disarmante umana.

Scott Pelley: Parlava del dolore che provano gli esseri umani. Parlava di redenzione. Come ha fatto a fare tutte queste cose se sta solo cercando di capire quale sarà la parola giusta successiva?

Sundar Pichai: Ho avuto anche io queste esperienze parlando con Bard. Ci sono due visioni di questo. Sai, c’è un gruppo di persone che lo vedono come algoritmi. Ripetono solo ciò che hanno visto online. Poi c’è la visione in cui questi algoritmi stanno mostrando proprietà emergenti, di essere creativi, di ragionare, di pianificare e così via, giusto? E personalmente, penso che dobbiamo avvicinarci a questo con umiltà. Parte del motivo per cui penso sia buono che alcune di queste tecnologie stiano uscendo è affinché la società, sai, persone come te e altri, possano elaborare ciò che sta accadendo. E iniziamo questa conversazione e questo dibattito. E penso che sia importante farlo.

La rivoluzione nell’intelligenza artificiale è al centro di un dibattito che va da coloro che sperano che salverà l’umanità a coloro che prevedono la rovina. Google si trova da qualche parte nell’ottimistico mezzo, introducendo l’IA a passi affinché la civiltà possa abituarsi ad essa. Abbiamo visto cosa sta arrivando nella tecnologia dell’apprendimento automatico nel laboratorio di AI di Google a Londra –

 

un’azienda chiamata DeepMind – dove il futuro sembra qualcosa del genere.

Scott Pelley: Guarda quello! Oh, mio Dio…

Raia Hadsell: Hanno un bel tiro…

Scott Pelley: Ah! Goal!

Una partita di calcio a DeepMind sembra divertimento e giochi, ma ecco il punto: gli esseri umani non hanno programmato questi robot per giocare, hanno imparato il gioco da soli.

Robot alimentati dall’IA si sono insegnati a giocare a calcio.

Raia Hadsell, vicepresidente della Ricerca e Robotica, ci ha mostrato come gli ingegneri hanno usato la tecnologia di motion capture per insegnare al programma di IA come muoversi come un essere umano. Ma sul campo da calcio i robot sono stati solo informati che l’obiettivo era segnare. Il programma di autoapprendimento ha impiegato circa due settimane per testare mosse diverse. Ha scartato quelle che non funzionavano, ha costruito su quelle che funzionavano e ha creato tutti stelle.

E con la pratica, migliorano. Hadsell ci ha detto che, indipendentemente dai robot, il programma di IA gioca migliaia di partite da cui impara e inventa le proprie tattiche.

Raia Hadsell: Qui pensiamo che il giocatore rosso lo afferrerà. Ma invece, lo ferma, lo restituisce, lo passa indietro e poi va verso la porta.

Scott Pelley: E l’IA ha capito come farlo da sola.

Raia Hadsell: Esatto. Esatto. E ci vuole un po’ di tempo. All’inizio tutti i giocatori corrono dietro al pallone insieme come un branco di bambini di 6 anni la prima volta che giocano a pallone. Col tempo, vediamo che ora, ‘Ah, qual è la strategia? Vai dopo la palla. Sto arrivando da questa parte. O dovremmo passare. O dovrei bloccare mentre tu arrivi alla porta.’ Quindi, vediamo tutta quella coordinazione emergere nel gioco.

Scott Pelley: Questo è molto divertente. Ma quali sono le implicazioni pratiche di ciò che stiamo vedendo qui?

Raia Hadsell: Questo è il tipo di ricerca che può alla fine portare a robot che possono uscire dalle fabbriche e lavorare in altri tipi di ambienti umani. Sai, pensa alle miniere, pensa ai lavori pericolosi di costruzione o di esplorazione o di recupero dopo i disastri.

Raia Hadsell è tra le 1.000 persone a DeepMind. L’azienda è stata co-fondata solo 12 anni fa dal CEO Demis Hassabis.

Demis Hassabis: Quindi, se penso al 2010 quando abbiamo iniziato, nessuno stava facendo IA. Non c’era niente in corso nell’industria. Le persone facevano rollio di occhi quando parlavamo loro, investitori, di fare IA. Quindi, non potevamo, a malapena, mettere insieme due centesimi per cominciare, il che è pazzesco se si pensa ora ai miliardi investiti nelle startup di IA.

È stato attraverso i giochi che è arrivato all’AI.

Demis Hassabis: Ho lavorato sull’AI per decenni e ho sempre creduto che sarebbe stata l’invenzione più importante che l’umanità avrebbe mai fatto.

Scott Pelley: La velocità del cambiamento supererà la nostra capacità di adattamento?

Demis Hassabis: Non penso. Penso che noi, sai, siamo una specie infinitamente adattabile. Sai, guardi oggi, usiamo tutti i nostri smartphone e altri dispositivi e ci adattiamo senza sforzo a queste nuove tecnologie. E questo sarà un altro di quei cambiamenti del genere.

Tra i cambiamenti più grandi di DeepMind c’è stata la scoperta che le macchine di auto-apprendimento possono essere creative. Hassabis ci ha mostrato un programma di gioco che impara. Si chiama AlphaZero e ha ideato una strategia vincente negli scacchi che nessun essere umano aveva mai visto.

Scott Pelley: Ma questo è solo una macchina. Come fa ad essere creativa?

Demis Hassabis: Gioca contro se stessa decine di milioni di volte. Così, può esplorare parti degli scacchi che forse i giocatori di scacchi umani e i programmatori di computer che programmano i computer degli scacchi non hanno mai pensato prima.

Scott Pelley: Non si stanca mai. Non ha mai fame. Gioca solo a scacchi tutto il tempo.

Demis Hassabis: Sì. È una cosa incredibile da vedere, perché in realtà imposti AlphaZero la mattina e inizia a giocare casualmente. A pranzo, sai, è in grado di battermi e battere la maggior parte dei giocatori di scacchi. E poi la sera è più forte del campione del mondo.

Demis Hassabis ha venduto DeepMind a Google nel 2014. Una ragione, era per mettere le mani su questo. Google ha la enorme potenza di calcolo di cui l’AI ha bisogno. Questo centro di calcolo si trova a Pryor, Oklahoma. Ma Google ne ha 23, ponendolo vicino alla cima in potenza di calcolo nel mondo. Questo è uno dei due progressi che rendono l’AI ascendente ora. Primo, la somma di tutte le conoscenze umane è online e, secondo, il calcolo a forza bruta che “approssima molto liberamente” le reti neurali e i talenti del cervello.

Demis Hassabis: Cose come la memoria, l’immaginazione, la pianificazione, l’apprendimento per rinforzo, sono tutte cose che si conoscono su come il cervello lo fa, e volevamo replicare alcune di queste cose nei nostri sistemi AI.

Questi sono alcuni degli elementi che hanno portato al più grande successo di DeepMind fino ad ora – risolvere un problema “impossibile” in biologia.

La maggior parte dei sistemi AI oggi fa una o forse due cose bene. I robot del calcio, ad esempio, non possono scrivere una lista della spesa o prenotare il tuo viaggio o guidare la tua auto. L’obiettivo finale è ciò che viene chiamata intelligenza artificiale generale – una macchina di apprendimento che può eccellere in un’ampia gamma di talenti.

Scott Pelley: Una macchina del genere sarebbe cosciente di se stessa?

Demis Hassabis: Quindi questa è un’altra grande domanda. Noi – sai, i filosofi non hanno ancora stabilito una definizione di coscienza, ma se intendiamo per auto-consapevolezza e – queste cose – sai, penso che ci sia la possibilità che un giorno l’IA possa esserlo. Non penso sicuramente che lo siano oggi. Ma penso che, ancora una volta, questo sia uno dei fascinosi problemi scientifici che scopriremo in questo percorso verso l’IA.

Anche inconsciamente, l’attuale IA è sovrumana in modi limitati.

Tornando in California, abbiamo visto ingegneri di Google insegnare abilità che i robot praticano continuamente da soli.

Robot: Spingi il cubo blu verso il triangolo blu.

Essi comprendono le istruzioni…

E imparano a riconoscere gli oggetti.

Robot 106: Cosa vorresti?

Scott Pelley: Che ne dici di una mela?

Ryan: Che ne dici di una mela.

Robot 106: In arrivo, ti porterò una mela.

Vincent Vanhoucke, direttore senior della robotica, ci ha mostrato come il Robot 106 è stato addestrato su milioni di immagini…

Robot 106: Andrò a prendere la mela.

…e può riconoscere tutti gli oggetti su un banco affollato.

Vincent Vanhoucke: Se possiamo dare al robot una varietà di esperienze, molti oggetti diversi in contesti diversi, il robot diventa migliore in ognuno di essi.

Ora che gli esseri umani hanno estratto il frutto proibito della conoscenza artificiale…

Scott Pelley: Grazie.

…inizia la genesi di una nuova umanità…

Scott Pelley: L’IA può utilizzare tutte le informazioni del mondo. Quello che nessun essere umano potrebbe mai tenere nella testa. E mi chiedo se l’umanità sia diminuita da questa enorme capacità che stiamo sviluppando.

James Manyika di Google: Credo che le possibilità dell’IA non diminuiscano l’umanità in alcun modo. E infatti, in alcuni modi, penso che ci elevino a domande ancora più profonde e profonde.

James Manyika di Google vede questo momento come un punto di svolta.

James Manyika: Credo che stiamo costantemente aggiungendo queste superpotenze o capacità a ciò che gli esseri umani possono fare in un modo che espande le possibilità, anziché restringerle, penso. Quindi non penso che diminuisca gli esseri umani, ma solleva alcune domande davvero profonde per noi. Chi siamo? Cosa valorizziamo? Cosa facciamo bene? Come ci relazioniamo gli uni con gli altri? Queste diventano domande molto, molto importanti che saranno costantemente, in un caso – in senso entusiasmante, ma forse anche destabilizzante.

È un momento destabilizzante. I critici sostengono che la corsa verso l’IA avvenga troppo rapidamente – mentre la pressione competitiva tra giganti come Google e start-up che non hai mai sentito parlare, sta spingendo l’umanità verso il futuro pronto o meno.

Sundar Pichai: Ma penso che se guardiamo a un orizzonte temporale di 10 anni, è così chiaro per me, avremo una qualche forma di intelligenza molto capace che può fare cose incredibili. E dobbiamo adattarci come società.

Il CEO di Google, Sundar Pichai, ci ha detto che la società deve rapidamente adattarsi con regolamentazioni per l’IA nell’economia, leggi per punire gli abusi e trattati tra le nazioni per rendere l’IA sicura per il mondo.

Sundar Pichai: Sai, queste sono domande profonde. E, sai, chiamiamo questo “allineamento”. Sai, un modo in cui pensiamo: come sviluppare sistemi di IA allineati ai valori umani – e inclusi – la moralità? Ecco perché penso che lo sviluppo di questo debba includere non solo ingegneri, ma scienziati sociali, etici, filosofi e così via. E penso che dobbiamo essere molto riflessivi. E penso che tutte queste cose la società debba capirle man mano che procediamo. Non spetta ad una singola azienda decidere.

Terminiamo con una nota che non è mai apparsa su 60 Minutes, ma che nella rivoluzione dell’IA potresti sentirlo spesso. Il precedente è stato creato con il 100% di contenuto umano.

Di ihal