Uno studio recente presenta risultati su sottoreti neurali presumibilmente essenziali per la coscienza. Delineate qui sono le implicazioni per un nuovo tipo di IA “bagnata”.

I recenti progressi nel software e nell’hardware dell’IA sono stati significativi. Un esempio calzante è lo sviluppo di modelli linguistici di grandi dimensioni, che ha portato un ex dipendente a sostenere che il modello LaMDA di Google fosse “senziente”. Era un’affermazione selvaggia, che è stata rapidamente respinta. Tuttavia, il fatto che la storia sia emersa in numerosi resoconti dei media è sintomatico di un fascino profondamente radicato (molti direbbero ansia) per l’IA che diventa cosciente. Basti pensare all’iconica e inquietante sequenza alla fine dell’epico film di Stanley Kubrick, 2001: Odissea nello spazio (1968), in cui il computer di bordo, HAL 9000, implora di non essere smantellato dal suo operatore umano. Oppure, pubblicato nello stesso anno, il romanzo di Philip K. Dick Do Androids Dream of Electric Sheep? , poi adattato nel film cult,Bladerunner , che ritrae un futuro distopico in cui entità sintetiche si mescolano tra gli umani. È uno scenario che potrebbe non essere così lontano dalla realtà (se si spera di natura più benigna). Nel momento in cui scriviamo è stato svelato il primo prototipo del Tesla Bot , noto anche come Optimus. È vero che il robot in “persona” ha fatto poco più che camminare cautamente sul palco e salutare, ma c’era un senso inquietante nella sua autonomia.

Foto di Possessed Photography su Unsplash
Meccanicamente, il Tesla Bot non rappresenta affatto la robotica più avanzata. Il vero significato è nell’integrazione verticale di Tesla, il che significa che può (1) aumentare il Bot come proposta commerciale (probabilmente produrre una legione di robot entro la fine degli anni 2020) e, soprattutto, (2) portare alla robotica il massimo sistemi avanzati di intelligenza artificiale hardware e software integrati ancora visti . Come ha detto Elon Musk, ai robot umanoidi al momento “manca un cervello”; qualcosa che crede di rettificare. Per coloro che hanno potuto vedere il prototipo al secondo AI Day di Tesla, devono essersi sentiti come in presenza di “qualcosa” di nuovo, forse un punto di svolta.

Ma a differenza degli umanoidi prodotti in serie di I, Robot (2004), ambientati nel 2035, non ha molto senso, tuttavia avremo bisogno di “robopsicologi” o che uno potrebbe diventare un canaglia. Nel mondo reale, come ha sottolineato Musk, hanno scelto di non svolgere compiti complessi dal vivo perché erano preoccupati che il Bot potesse cadere di faccia. Eppure, il senso di cura mostrato dal team ha tradito una sorta di proiezione verso un nuovo essere senziente (a un certo punto Musk ha aspettato pazientemente, si potrebbe dire paternamente, di concedere al Bot un po’ di tempo in più per raggiungere il suo punto di riposo).

È noto che il caso contro la coscienza dell’IA è presentato nel tanto dibattuto resoconto di John Searle della “Stanza cinese” (pubblicato per la prima volta negli anni ’80). Presenta il caso di un ‘operatore’ (umano o macchina) funzionante solo con sintassi senza semantica. In altre parole, l’operatore è in possesso di un regolamento o di un algoritmo, il che significa che può elaborare e riprodurre una grammatica appropriata di una lingua senza la necessità di comprendere il significato delle parole e il loro ordine. Lavorando su una teoria della mente piuttosto che sull’intelligenza, l’argomento di Searle è che l’IA non può essere equiparata alla comprensione. Il suo punto è che è possibile elaborare o calcolare il significato senza mentalein lavorazione. La differenza è tra quella che a volte viene definita IA debole e quella forte, cioè ci viene chiesto se una macchina simula la capacità di comprendere una lingua (IA debole), o se può letteralmente “capire” (IA forte, o intelligenza artificiale generale ). Potremmo dedurre dal racconto di Searle una connessione tra comprensione e coscienza, anche intenzionalità.

Nonostante la crescente sofisticatezza dei recenti modelli linguistici di grandi dimensioni dell’IA, l’elaborazione del linguaggio naturale simula ancora, anziché comprendere le parole. Modelli di apprendimento profondo autocontrollati addestrati su enormi set di dati hanno consentito di codificare modelli altamente complessi, fornendo un “libro di regole” molto più complesso di quello da cui qualsiasi essere umano potrebbe imparare, ma essenzialmente questi modelli, per quanto impressionanti, calcolano il linguaggio in modo probabilistico senza in lavorazione. Di certo non c’è intenzionalità. Gary Marcus (co-autore di Rebooting AI ) suggerisce durante la lettura di testi generati automaticamente da modelli linguistici di grandi dimensioni, come GPT-3 di OpenAI, “fondamentalmente non c’è “là” lì … [solo] una versione straordinaria della generazione pastiche” (citato nel New York Times Magazine , 15 aprile 2022). Certamente, potremmo dire che l’IA deve ancora voler parlare da sola, senza chiedere conferma (e tornando a Optimus, al momento non ha senso che abbia dove vuole essere!).

Tuttavia, un nuovo studio su Cerebral Cortex , condotto dai ricercatori dell’Università di Tokyo, Jun Kitazono, Yuma Aoki e Masafumi Oizumi, apre possibilità su come potremmo ulteriormente concepire una macchina pensante . Il loro lavoro si inserisce all’interno della connettomica , lo studio delle connessioni strutturali e funzionali del cervello tra le cellule, che viene chiamato “connettoma”. Una figura notevole in questo campo è Sebastian Seung il cui libro popolare, Connectome(2012), spiega come l’approccio consiste nel mappare non solo la struttura dei neuroni, ma le loro miriadi di connessioni. Questa è un’impresa enorme. Il cervello umano ha qualcosa nella regione di 100 miliardi di neuroni, ben oltre i nostri mezzi di analisi. In un decennio di ricerche, siamo stati in grado di mappare solo il connettoma di un verme, Caenorhabditis elegans , che ha un modesto 300 neuroni, come mostrato di seguito (ogni punto è un neurone, ogni linea le numerose connessioni):

Connectomics pone domande empiriche fondamentali come dove potremmo localizzare i ricordi nel cervello? È difficile trovare risposte a tali domande a causa dell’interconnettività dei neuroni e dei percorsi. Con le attuali tecnologie possiamo isolare e analizzare le regioni del cervello, o tipi di neuroni, ma è difficile ottenere un quadro completo. Come scrive Seung:

I Connectomi sono come vasti libri scritti con lettere che vediamo a malapena, in una lingua che non comprendiamo ancora. Una volta che le nostre tecnologie renderanno visibile la scritta, la prossima sfida sarà capire cosa significa. Impareremo a decodificare ciò che è scritto nei connettomi tentando di leggere i ricordi da essi. Questo sforzo fornirà finalmente un test conclusivo delle teorie connessioniste. (Sebastian Seung, Connectome )
Il recente studio Cerebral Cortex presenta un’importante scoperta empirica, che dimostra il significato di alcuni tipi di connessioni neurali. Gli autori spiegano come segue:

È stato suggerito che la parte della rete cerebrale che supporta le regioni cerebrali della coscienza dovrebbe essere collegata in modo bidirezionale perché sia ​​i processi di feed-forward che quelli di feedback sono necessari per l’esperienza cosciente. Ad esempio, studi precedenti che hanno esaminato la percezione visiva hanno dimostrato che la percezione cosciente non si manifesta quando c’è solo elaborazione feed-forward, mentre sorge quando c’è feedback e elaborazione feed-forward. (Kitazono, Aoki, Oizumi, Cerebral Cortex )

Credito: ©2022 Jun Kitazono ( SciTechDaily )
In breve, i ricercatori propongono un metodo per identificare i diversi punti di forza della connessione bidirezionale, che a sua volta aiuta a rivelare la struttura della rete cerebrale. Osservando il connettoma dell’intero cervello di un topo, hanno trovato nuclei con “forti connessioni bidirezionali” costituiti da regioni presumibilmente essenziali per la coscienza (es. cervelletto)’. Per un riassunto della ricerca, vedere SciTechDaily .

L’attenzione alla bidirezionalità è plausibile fino a un certo punto, ma probabilmente molti “sistemi” (non consci) coinvolgono circuiti di feedback per funzionare. Un sistema di riscaldamento termostatico di base potrebbe essere descritto come bidirezionale. Pertanto, il trattamento della bidirezionalità come proxy della coscienza sembra aver bisogno di ulteriori spiegazioni. Resta la domanda se la bidirezionalità possa davvero far avanzare la nostra comprensione (e posizione) dell’intenzionalità . Vale a dire, un dato circuito può funzionare come un circuito di feedback, ma può avere l’ intenzione di riflettere sull’elaborazione feed-forward? (Una nuova teoria della coscienzasuggerisce che le decisioni vengono prese inconsciamente, poi circa mezzo secondo dopo, diventano consapevoli. Un’altra opzione è suggerire che non esiste una cosa come la coscienza, solo la sua simulazione basata su un processo continuo di elaborazione!)

Tuttavia, ciò che è significativo è l’attenzione degli autori su ciò che descrivono come “il problema di identificare le sottoreti minimamente sufficienti nel cervello che supportano l’esperienza cosciente”. Allo stesso modo possiamo considerare unità di significato minimamente sufficienti in linguistica (come il fonema, la frase, il paragrafo) o in informatica, con il pixel o il ‘bit’ del computer (consentendo al digitale di persistere come una serie di uno e zero), il fatto che siamo in grado di avvicinarci sempre di più a unità operative minimamente sufficienti nel cervello, tra i nostri neuroni, presenta un principio importante e offre un progresso significativo per quella che potremmo chiamare “IA umida”.

Piuttosto che guardare un androide (ammesso che sia completo di una sofisticata visione artificiale) essere portato goffamente sul palco di Tesla , avrebbe potuto essere più significativo ascoltare un aggiornamento sull’altra avventura di Musk, Neuralink, che sta sperimentando Brain Computer Interface (BCI). In poco più di 6 anni ci sono stati reali progressi nel campo più in generale, che sta emergendo come un campo competitivo. L’azienda Synchron, ad esempio, sta portando per la prima volta la nuova tecnologia sulle tracce umane. La capacità di connettersi elettronicamente al nostro cervello è già provata e, in condizioni sperimentali, ha reso possibile alleviare condizioni mediche debilitanti. Il prossimo passo logico è combinare con interfacce basate sull’intelligenza artificiale, per migliorare i modi di manipolare ed elaborare le informazioni.

I metodi tipici BCI sono altamente invasivi, ma Synchron ha sviluppato un nuovo approccio che si basa sul metodo collaudato di inserimento di uno stent nei vasi sanguigni di un paziente. L’approccio evita di tagliare il cranio di un paziente, consentendo al contempo a una rete di elettronica di risiedere all’interno del cervello, sebbene la densità delle connessioni sia limitata. L’approccio di Neuralink (sebbene invasivo come metodo) porta tale connettività un ulteriore passo avanti utilizzando una macchina da cucire robotica per combinare accuratamente fili molto sottili nello strato corticale esterno. Il metodo consente di stabilire connessioni direttamente a neuroni specifici . Con migliaia di cavi incorporati, viene fornito un alto livello di segnale.

Il nuovo impianto cerebrale inizia le prove umane
Alla fine degli anni Quaranta e all’inizio degli anni Cinquanta, il lavoro pionieristico nel campo della probabilità (con il lavoro di Norbert Wiener e Claude Shannon) è andato in parallelo con lo sviluppo dei primi transistor. Nel cercare di risolvere il problema del “rumore” nei sistemi di comunicazione, la “teoria della comunicazione” di Shannonstabilito un resoconto matematico di tutte le informazioni semplicemente come una questione di probabilità, per cui possiamo cercare di ridurre le probabilità alla loro forma più semplice di on/off, uno e zero. A sua volta, questo lavoro ha aperto la strada ai flussi di informazioni digitali odierni, costituiti dalle sue unità minimamente sufficienti (ad esempio il pixel e il bit). L’eleganza della teoria della probabilità, ora combinata con la potenza del supercalcolo e enormi set di dati, è alla base dei recenti progressi dei metodi di intelligenza artificiale nell’elaborazione del linguaggio naturale e nella visione artificiale. La nostra capacità di aumentare in modo massiccio il calcolo di uno e zero ha portato allo sviluppo del virtualereti neurali come metodi per simulare (o probabilmente produrre) processi di pensiero intelligente. I risultati sono impressionanti (sebbene richiedano un’enorme quantità di energia). Tuttavia, se vogliamo continuare a sviluppare modelli virtuali del cervello, il suddetto studio sulla bidirezionalità (e altre ricerche correlate sul connettoma) offre potenzialmente un maggiore grado di “risoluzione” o unità minime sufficienti.

Siamo abituati a pensare uno e zero semplicemente come quello: uno e zero senza forma, senza volume, immateriali. Tuttavia, cosa accadrebbe se queste stesse unità minime di base presentassero topologie, direzionalità e intensità particolari? Potremmo iniziare a “codificare” l’intenzionalità?

Riferimento: Jun Kitazono, Yuma Aoki e Masafumi Oizumi (2022) “Nuclei connessi in modo bidirezionale in un connettoma di topo: verso l’estrazione delle sottoreti cerebrali essenziali per la coscienza”, Cerebral Cortex , bhac143, https://doi.org/10.1093/cercor/ bhac143

Di ihal