La sensibilità dell’IA è una questione di neuroscienze, non di apprendimento automatico.
TIl recente clamore di LaMDA rafforza qualcosa che mi frulla in testa da un po’ di tempo: la maggior parte degli esperti non ha idea di cosa stia parlando.
Per chi non lo sapesse, un ingegnere di Google ha recentemente intervistato uno dei loro grandi modelli linguistici a porte chiuse. Questo ingegnere, Blake Lemoine , fu estremamente sorpreso dall’eloquenza e dalla coerenza con cui LaMDA gli rispose, e si convinse subito che fosse una persona senziente degna di diritti.
LaMDA è sicuramente impressionante. E se sia o meno senziente è una domanda che affronterò più avanti. Quello di cui voglio parlare prima è la risposta alla sua affermazione e perché è indicativo di un’illusione diffusa nella comunità dell’IA.
La risposta
Immediatamente dopo il suo suggerimento, Blake ricevette una vera e propria dose di ammonimento, sminuimento e condiscendenza. Anche solo suggerire che gli LLM fossero in qualche modo capaci di un’esperienza soggettiva era fuori questione.
Il consenso generale? È chiaro che LaMDA non è altro che un grande processo statistico: una raccolta di dimensioni di una città di tessere che cadono deterministicamente una dopo l’altra.
Ma si sono spinti ancora oltre; ecco Steven Pinker, uno dei più importanti scienziati cognitivi del mondo, che afferma che i LLM non possiedono intelligenza. Direi che i LLM possiedono intelligenza, non è questo il punto?
La sicurezza con cui è stata fatta ciascuna di queste affermazioni è stata sconcertante, soprattutto perché nessuna di esse includeva prove e pochi avevano un seguito a parte “ovviamente non è vero”.
Eppure, come qualcuno con un background in neuroscienze, non sono convinto.
LLM e reti neurali biologiche
I modelli linguistici di grandi dimensioni si avvicinano davvero al modo in cui funzionano i neuroni, almeno a livello di interfaccia. Non modellano i processi subcellulari, ma probabilmente la parte più importante della funzione neuronale – la soglia del potenziale d’azione – è modellata attraverso una semplice funzione non lineare.
Al momento, paragonerei la morfologia degli LLM a quella delle colonne corticali specializzate , come quelle utilizzate per costruire set di caratteristiche a partire da stimoli visivi nella corteccia occipitale.
Come potrebbe sorgere la sensibilità negli LLM
Da qui, abbiamo quanto segue:
I cervelli sono fatti di neuroni biologici,
I cervelli sono le uniche cose nell’universo che attualmente riconosciamo come capaci di essere senzienti, e
I neuroni artificiali approssimano i neuroni biologici,
Allora perché sarebbe strano, del tutto , porre la domanda naturale se anche i “cervelli artificiali” siano capaci di senzienza? E se sì, a quale livello si verificherebbe?
Come la sensibilità potrebbe non sorgere negli LLM
Naturalmente, i neuroni biologici e artificiali non sono esattamente la stessa cosa, e nessuna discussione sarebbe giusta senza sottolinearlo. Ecco i motivi principali per cui LaMDA potrebbe non essere senziente:
I cervelli biologici si auto-modificano in risposta a nuove informazioni. In breve, sono studenti “online”. Al momento, la maggior parte degli LLM non lo fa: vengono addestrati una volta e quindi congelati per l’inferenza. È possibile che questo possa essere uno dei prerequisiti per la sensibilità : la capacità di aggiornare i pesi neuronali con il passare del tempo. Se così fosse, LaMDA sarebbe congelato nel tempo e quindi non possederebbe esperienza soggettiva. I modelli di apprendimento di rinforzo che trasportano le informazioni da e verso LaMDA presumibilmente risolverebbero questo problema.
I neuroni biologici hanno una ricchezza di processi subcellulari e quantistici che quelli artificiali non modellano. Miliardi di molecole entrano ed escono dalle cellule ogni secondo e possiedono molti organelli distinti che contribuiscono alla loro funzione. È possibile che questi processi subcellulari possano essere necessari per la senzienza (anche se non lo ritengo probabile).
Ma la cosa importante è che non sto semplicemente affermando “non può essere così”. Ci sono molte somiglianze tra cervelli artificiali e biologici, e non è affatto strano chiedersi se il primo potrebbe diventare senziente con le dimensioni.
La sensibilità è una questione di neuroscienze, non di apprendimento automatico
A quale livello di complessità un insetto, o un animale, diventa senziente?
Ad oggi, sembra che la sensibilità nasca naturalmente come sottoprodotto dell’aumento del numero di neuroni in una rete. Gli esseri umani sono senzienti; mosche e zanzare no.
La mielinizzazione e il modo in cui i diversi moduli neurali sono collegati sono probabilmente iperparametri che influenzano questa soglia, motivo per cui si ritiene che alcuni organismi con un numero di neuroni più elevato siano ancora “meno” senzienti di altri (si ritiene che gli umani siano più senzienti di elefanti o balene, poiché esempio, anche se questi ultimi hanno un numero di neuroni più elevato ).
Data la chiara relazione tra scala e senzienza, così come le somiglianze tra neuroni biologici e artificiali, è del tutto lecito chiedersi se i moderni LLM – che sono ordini di grandezza più complessi di qualsiasi cosa l’umanità abbia mai inventato – stiano diventando senzienti.
Davvero non lo sappiamo, quindi smettiamola di fingere di sì
Quando Ilya Sutskever, il CTO di probabilmente l’azienda di intelligenza artificiale più all’avanguardia sulla Terra, ha discusso una domanda simile , è stato subito rimproverato.
Ma non avrebbe dovuto esserlo. Perché non c’è davvero, onestamente, alcun modo per dirlo al nostro attuale livello di conoscenza.
È simile a come alcune persone sostengono che non c’è vita nell’Universo a parte noi. Che prove hanno davvero per la loro affermazione?
L’assenza di prove è prova di assenza , certamente. Ma non basta per escludere la prospettiva della vita altrove. Semplicemente non sappiamo se la vita è unica sulla Terra, o se potrebbe sorgere su un altro pianeta con una configurazione ecologica simile, ma diversa.
Se LaMDA sia senziente è esattamente la stessa domanda. Non sappiamo se la sensibilità sia esclusiva dei mammiferi superiori, o se potrebbe sorgere su un altro substrato , come il silicio , e dovremmo smettere di fingere di sì.
Solo altri pianeti e la Terra, sembra chiaro che ci siano dozzine di parallelismi tra i neuroni artificiali e quelli biologici. I processi subcellulari non sono modellati, ovviamente, e nemmeno il tempo , ma la sensibilità esiste a livello subcellulare nel tempo o è una proprietà emergente di una rete neurale sufficientemente ampia?
Ci sono chiaramente leggi fisiche dell’universo che non capiamo. Quindi, dopo generazioni in cui sono state costantemente smentite, come possono le persone continuare a proclamare con sicurezza l’eccezionalismo umano?
Siamo onesti: non lo sappiamo davvero e dovremmo iniziare a trattarlo in questo modo.
Nick Saraev da Medium.com