Quanto siamo vicini a vivere in un mondo in cui l’intelligenza a livello umano è superata dalle macchine? Nel corso della mia carriera, mi sono regolarmente impegnato in un esperimento mentale in cui provo a “pensare come il computer” per immaginare una soluzione a una sfida o un’opportunità di programmazione. Il divario tra il ragionamento umano e il codice del software era sempre abbastanza chiaro.

Poi, alcune settimane fa, dopo aver conversato con il chatbot di LaMDA per diversi mesi, Blake Lemoine, ora “ex” ingegnere AI di Google, ha detto che pensava che LaMDA fosse senziente [abbonamento richiesto]. Due giorni prima dell’annuncio di Lemoine, Douglas Hofstadter, pioniere dell’intelligenza artificiale e scienziato cognitivo vincitore del Premio Pulitzer, ha  scritto un articolo in cui affermava che [è richiesta la sottoscrizione] che le reti neurali artificiali (la tecnologia software alla base di LaMDA) non sono coscienti. È anche giunto a questa conclusione dopo una serie di conversazioni con un altro potente chatbot di intelligenza artificiale chiamato GPT-3. Hofstadter ha concluso l’articolo stimando che siamo ancora lontani decenni dalla coscienza della macchina.

 
Poche settimane dopo, Yann LeCun, il capo scienziato del laboratorio di intelligenza artificiale (AI) di Meta e vincitore del Premio Turing 2018, ha pubblicato un documento intitolato ” Un percorso verso l’intelligenza artificiale autonoma “. Condivide nel documento un’architettura che va oltre la coscienza e la senzienza per proporre un percorso per programmare un’IA con la capacità di ragionare e pianificare come gli esseri umani. I ricercatori chiamano questa intelligenza artificiale generale o AGI.

Penso che arriveremo a considerare l’articolo di LeCun con la stessa riverenza che riserviamo oggi all’articolo di Alan Turing del  1936  che descriveva l’architettura per il moderno computer digitale. Ecco perché. 

 

Simulazione dell’azione utilizzando un modello mondiale
La prima svolta di LeCun sta nell’immaginare un modo per superare i limiti delle IA specializzate di oggi con il suo concetto di “modello mondiale”. Ciò è reso possibile in parte dall’invenzione di un’architettura gerarchica per modelli predittivi che imparano a rappresentare il mondo a più livelli di astrazione e su più scale temporali.

Con questo modello mondiale, possiamo prevedere possibili stati futuri simulando sequenze d’azione. Nel documento, osserva, “Ciò può consentire il ragionamento per analogia, applicando il modello configurato per una situazione a un’altra situazione”.

Un modulo di configurazione per guidare il nuovo apprendimento
Questo ci porta alla seconda grande innovazione nell’articolo di LeCun. Come osserva, “Si può immaginare un modello mondiale ‘generico’ per l’ambiente con una piccola parte dei parametri modulati dal configuratore per il compito in questione”. Lascia aperta la questione di come il configuratore impari a scomporre un compito complesso in una sequenza di sotto-obiettivi .  Ma questo è fondamentalmente il modo in cui la mente umana usa le analogie.

 
Ad esempio, immagina se ti sei svegliato questa mattina in una stanza d’albergo e hai dovuto azionare la doccia nella stanza per la prima volta. È probabile che tu abbia rapidamente suddiviso il compito in una serie di sotto-obiettivi attingendo alle analogie apprese operando altre docce. Per prima cosa, determina come aprire l’acqua usando la maniglia, quindi conferma in quale direzione girare la maniglia per rendere l’acqua più calda, ecc. Potresti ignorare la stragrande maggioranza dei punti dati nella stanza per concentrarti solo su alcuni che sono rilevanti a quegli obiettivi.

Una volta avviato, tutto l’apprendimento automatico intelligente diventa autoapprendimento
Il terzo grande progresso è il più potente. L’architettura di LeCun si basa su un paradigma di apprendimento auto-supervisionato. Ciò significa che l’IA è in grado di apprendere da sola guardando video, leggendo testi, interagendo con gli esseri umani, elaborando i dati dei sensori o elaborando qualsiasi altra sorgente di input. La maggior parte delle IA oggi deve essere addestrata su una dieta di dati appositamente etichettati preparati da addestratori umani.

DeepMind di Google ha appena rilasciato un database pubblico  prodotto dalla loro AlphaFold AI. Contiene la forma stimata di quasi tutti i 200 milioni di proteine ​​conosciute dalla scienza. In precedenza, i ricercatori impiegavano 3-5 anni per prevedere sperimentalmente la forma di una sola proteina. I trainer AI di DeepMind e AlphaFold hanno finito quasi 200 milioni nella stessa finestra di cinque anni.

Cosa significherà quando un’IA può pianificare e ragionare da sola senza istruttori umani? Le odierne tecnologie di intelligenza artificiale ( apprendimento automatico, automazione dei processi robotici, chatbot ) stanno già trasformando le organizzazioni in settori che variano dai laboratori di ricerca farmaceutica alle compagnie assicurative.

Quando arriveranno, tra pochi decenni o pochi anni, le macchine intelligenti introdurranno sia nuove vaste opportunità che sorprendenti nuovi rischi.

Di ihal