Coscienza e intelligenza artificiale, un’ambizione eccessiva: esaminare la loro rilevanza nel contesto della governance dell’IA

Durante le estati del 1956, subito dopo, Alan Turing aveva avviato un tentativo preliminare di scoprire come le macchine possono essere fatte per imparare, un piccolo gruppo di scienziati si era riunito al Dartmouth College nel New Hampshire per trasformare le loro teorie selvaggiamente ottimistiche in realtà materiale.

La loro proposta ha risuonato un tentativo fiducioso di scoprire meccanismi che potrebbero far utilizzare alle macchine linguaggi, sviluppare concetti e trovare problemi che normalmente sono riservati alla risoluzione degli esseri umani. Un controllo efficace suggerirebbe anche che abbiano avuto un discreto successo, con il dovuto rispetto per le loro circostanze sociali.

Alcune delle loro scoperte degne di nota riguardavano macchine in grado di risolvere enigmi logici, fare calcoli, una delle quali impegnata a dimostrare i principi matematici di Bertrand Russell , mentre la famosa ELIZA , era in grado di comunicare in un formato di linguaggio naturale modellato.

Tuttavia, c’è stato un consenso tra gli scienziati dopo aver concluso la conferenza sul fatto che il problema principale per loro non era la capacità di elaborazione delle macchine, era la loro competenza che limitava la loro capacità di sfruttare appieno le macchine a loro disposizione.

Per mettere questa affermazione in termini puramente profani, un iPhone 6 che è stato rilasciato circa mezzo decennio fa, può eseguire calcoli 100.000 volte più velocemente dell’IBM 7030, un supercomputer multimilionario della stessa epoca.


Potrebbero incorrere in un momento da vacca sacra come stimano i fanatici del computer della Silicon Valley. Si riferisce alla sensazione in cui un individuo si rende conto che le IA stanno progredendo molto più velocemente del previsto. È un fenomeno in cui sembriamo prevedere il progresso, in gran parte sulla base delle performance passate come indicatore. Intendo rivisitare in modo sorprendente questo concetto mentre questo articolo continua ad evolversi.

Lo stesso si potrebbe dire dei rappresentanti del National Institute for Transforming India ( NITI Aayog ), che in occasione del rilascio di una bozza di documento per la governance degli agenti di intelligenza artificiale ristretta è salito al punto da affermare che le IA non possono mai essere coscienti. Per quanto riguarda la rilevanza, questo articolo si concentra su un’indagine scettica sulla rispettiva dichiarazione.

Una coincidenza degna di nota è che la dichiarazione è stata resa lo stesso giorno, in cui il Dipartimento delle Telecomunicazioni celebrava i 25 anni della prima chiamata “da cellulare a cellulare” in India. Chi avrebbe mai pensato in due decenni da allora, questo rispettivo dispositivo svolgerà un ruolo così fondamentale nel plasmare le nostre identità socio-culturali.

Il termine coscienza, per quanto amiamo esplorare i suoi beni la domenica sera a un cocktail party con i nostri colleghi, rimane ancora difficile da spiegare attraverso contorni scientifici. Sviluppi promettenti sono venuti dalle scuole di filosofia, psicologia e spiritualità, ma devono essere letti indipendentemente l’uno dall’altro.

Per il bene di questo articolo e con la dovuta accettazione della mia comprensione limitata, la coscienza negli esseri umani si riferirà alla capacità di prendere decisioni, basata su combinazioni di esperienze passate, con l’obiettivo finale di ottenere benefici individuali o collettivi per l’esistenza.

Pertanto, se dovessimo presumere che la dichiarazione resa dal rappresentante della NITI Aayog sia valida, dobbiamo successivamente essere convinti di due premesse inerenti. In primo luogo, la coscienza non può essere elaborata logicamente come un programma computazionale in agenti intelligenti artificiali mai in futuro. In secondo luogo, la coscienza è una caratteristica desiderabile e importante che gli agenti dell’Intelligenza Artificiale devono possedere per migliorarne sostanzialmente l’efficacia.

Per contrastare la prima premessa inerente, rispetterò la mia promessa di riportare la spiegazione inoltrata con il momento della vacca sacra. È logico affermare dalla loro dichiarazione che la ferma previsione nel campo della coscienza e dell’intelligenza artificiale si basa sulla nozione frivola di pregiudizi. La nostra più grande esposizione agli agenti di intelligenza artificiale oggi è sotto forma di intelligenza ristretta e questo è quello che credo sia l’indicatore principale su cui hanno fatto affidamento mentre rilasciavano una dichiarazione fortemente controversa.

Questa affermazione scarta anche i sentimenti prevalenti della scuola di pensiero razionalista che arriva al punto di dire che un agente artificiale super intelligente è l’ultima invenzione a cui la civiltà umana dovrà indulgere. Sarebbe difficile convincere un seguace del rispettivo scuola di pensiero che un agente Super Intelligente non può produrre una forma computazionale di coscienza. In effetti, il seguace sarebbe in grado di convincerti che il rispettivo agente sarà in una posizione molto migliore per echeggiare una spiegazione costruttiva della coscienza.

per agire in un mondo mutevole e incerto, potrebbe essere necessario costruire macchine con obiettivi molto aperti e la capacità di riflettere su come raggiungere e persino adattare tali obiettivi. Questi possono essere passi sulla strada per una macchina cosciente.

Toby Walsh scrive nel 2062: The World That AI Made
Nonostante la sua struttura complessa e inspiegabile, la coscienza ha quindi il suo canale consolidato di vantaggi. Ne siamo stati gli evidenti beneficiari ed è ingiustificato dire che non sperimenteremo tentativi fatti su questo fronte per produrre una forma computazionale di coscienza.


Passando alla seconda premessa intrinseca, in cui determiniamo la natura sostanzialmente desiderabile della coscienza negli agenti dell’IA. Lo facciamo impegnandoci in un’indagine sistemica che deve essere suddivisa in tre livelli di interrogazione.

In primo luogo, se le IA debbano necessariamente essere consapevoli per fornire una minaccia esistenziale ragionevole e radicata alla civiltà umana. Questo è qualcosa a cui ho indirettamente risposto nel mio precedente articolo attraverso l’aiuto dell’esperimento del massimizzatore di graffette come spiegato da Nick Bostrom .

Ai fini di questa domanda, è solo importante notare che un agente Artificial General Intelligent deve semplicemente seguire gli obiettivi classici di allineamento dei valori che enfatizzano la sopravvivenza degli individui umani per causare una minaccia esistenziale per noi. Pertanto, non è chiaro se la coscienza possa oggettivamente portare a una minaccia esistenziale, tuttavia non è l’unico meccanismo attraverso il quale una minaccia può essere raggiunta.

In secondo luogo, se la coscienza a livello umano è fondamentale per lo sviluppo di agenti di intelligenza artificiale senza minacce alla nostra esistenza. Anche se presumiamo che questo sia il motivo, la rispettiva preoccupazione viene valutata direttamente mentre si affronta il problema dell’allineamento del valore . Inoltre, anche dopo rivelazioni rivoluzionarie, se riusciamo a sviluppare un’impronta computazionale della coscienza, l’applicazione di regolamenti specifici per soggetto aprirà strade a pregiudizi nel processo. Quando si tratta di agenti ristretti artificiali, si deve tenere presente che l’unico obiettivo dell’agente è raggiungere il proprio obiettivo, che sia cosciente o meno, irrilevante.

Infine, se sia valido prendere in considerazione la qualificata distinzione offerta dalla coscienza negli esseri umani. Nonostante la sua inclinazione filosofica, questa è una domanda molto importante. Una risposta concisa allo stesso può essere compresa da un semplice sguardo allo stato delle cose.

Un eminente ricercatore di intelligenza artificiale, Eliezer Yudkowsky, attraverso l’esperimento AI Box ha spiegato che un’intelligenza artificiale può consentire minacce letali attraverso un accesso minimo alla comunicazione anche se è conservata all’interno di una scatola o di una prigione virtuale. L’oggetto principale dell’esperimento era affrontare la nozione di incertezza associata all’intelligenza artificiale.

Durante la formulazione di una risposta a questa sensazione, dobbiamo essere in grado di riflettere sui pregiudizi e sulla debolezza prevalenti poiché l’impegno sarà vitale per la nostra continua sopravvivenza. Pertanto, le IA ci presentano un’altra opportunità per indulgere in una rivalutazione coerente della coscienza, che è una preoccupazione maggiore dell’osservazione ipotetica che la coscienza ci fornisce un vantaggio mentre competiamo con le IA.

Di ihal