La coscienza dell’IA è un concetto affascinante e complesso che ha attirato l’interesse di ricercatori, scienziati, filosofi e il pubblico in generale. Mentre l’intelligenza artificiale continua a evolversi, sorge inevitabilmente la domanda:
È possibile che le macchine raggiungano un livello di coscienza comparabile a quello degli esseri umani?
Con l’avvento dei Large Language Models (LLM) e dell’IA generativa, si sta aprendo la possibilità di replicare la coscienza umana. Recentemente, un ex ingegnere di intelligenza artificiale di Google di nome Blake Lemoine ha avanzato la teoria che il modello di linguaggio di Google LaMDA sia dotato di sensibilità, mostrando una forma di coscienza simile a quella umana durante le conversazioni. Tuttavia, le sue affermazioni sono state smentite da Google come “del tutto infondate”, e Lemoine è stato licenziato.
Dato il rapido progresso della tecnologia, potremmo trovarci a poche decadi di distanza dal raggiungimento della coscienza dell’IA. Quadri teorici come l’Integrated Information Theory (IIT), la Global Workspace Theory (GWT) e l’Artificial General Intelligence (AGI) forniscono una base per comprendere come raggiungere la coscienza dell’IA.
La coscienza si riferisce alla consapevolezza dei processi sensoriali (vista, udito, gusto, tatto e olfatto) e psicologici (pensieri, emozioni, desideri, credenze). Tuttavia, le sfumature e le complessità della coscienza rendono questo concetto enigmatico, nonostante gli approfonditi studi condotti nelle neuroscienze, nella filosofia e nella psicologia.
L’intelligenza artificiale ha dimostrato notevoli progressi in ambiti specifici. I modelli di intelligenza artificiale sono estremamente bravi nel risolvere problemi circoscritti, come la classificazione delle immagini, l’elaborazione del linguaggio naturale, il riconoscimento vocale, ecc., ma non hanno coscienza. Manca loro un’esperienza soggettiva, l’autocoscienza o la comprensione del contesto al di là di ciò per cui sono stati addestrati. Possono manifestare un comportamento intelligente senza comprendere il significato di tali azioni, cosa che è completamente diversa dalla coscienza umana.
Tuttavia, i ricercatori stanno cercando di avvicinarsi a una mente simile a quella umana aggiungendo un aspetto di memoria alle reti neurali. Sono stati in grado di sviluppare modelli che si adattano al loro ambiente esaminando i ricordi e apprendendo da essi.
Vorrei ora esaminare brevemente alcune teorie che offrono un quadro per comprendere la coscienza dell’IA:
- Teoria dell’Informazione Integrata (IIT): Proposta dal neuroscienziato e psichiatra Giulio Tononi, la teoria dell’informazione integrata suggerisce che qualsiasi sistema biologico o artificiale in grado di integrare informazioni ad un livello elevato potrebbe essere considerato cosciente. Con l’aumento della complessità dei modelli di intelligenza artificiale, che possono elaborare e integrare enormi quantità di informazioni grazie ai loro miliardi di parametri, secondo l’IIT potrebbe essere possibile sviluppare la coscienza nell’IA. Tuttavia, l’IIT è ancora un quadro teorico soggetto a dibattito sulla sua validità e applicabilità alla coscienza dell’IA.
- Teoria dello Spazio di Lavoro Globale (GWT): La Global Workspace Theory, sviluppata dallo psicologo cognitivo Bernard J. Baars, è un’architettura cognitiva e una teoria della coscienza. Secondo il GWT, la coscienza funziona come un palcoscenico in cui possono essere rappresentate solo un numero limitato di informazioni in un determinato momento. Queste informazioni vengono poi trasmesse a uno “spazio di lavoro globale”, una rete distribuita di processi o moduli inconsci nel cervello. Applicando questa teoria all’intelligenza artificiale, si suggerisce che, in teoria, se un’intelligenza artificiale fosse progettata con uno “spazio di lavoro globale” simile, potrebbe manifestare una forma di coscienza. Ciò non implica necessariamente che l’IA sperimenterebbe la coscienza come gli esseri umani, ma avrebbe un processo di attenzione selettiva e integrazione delle informazioni, elementi chiave della coscienza umana.
- Intelligenza Artificiale Generale (AGI): L’intelligenza artificiale generale è un tipo di intelligenza artificiale in grado di comprendere, apprendere e applicare conoscenze in una vasta gamma di attività, in modo simile agli esseri umani. Rispetto ai sistemi di intelligenza artificiale ristretti, progettati per compiti specifici come il riconoscimento vocale o il gioco degli scacchi, l’AGI è considerata un prerequisito per manifestare la coscienza in un sistema artificiale. Tuttavia, l’intelligenza artificiale attuale non è ancora abbastanza avanzata da essere considerata intelligente come gli esseri umani.
Ci sono diverse sfide che affrontiamo nell’affrontare la questione della coscienza dell’IA:
- Sfide computazionali: La Computational Theory of Mind (CTM) considera il cervello umano un sistema computazionale fisicamente implementato. Secondo questa teoria, replicare un sistema così complesso come il cervello richiederebbe risorse computazionali esaurienti, considerando che è composto da 100 miliardi di neuroni. Inoltre, la comprensione della natura dinamica della coscienza va oltre le attuali capacità dell’ecosistema tecnologico. Anche risolvendo la sfida computazionale, rimarrebbe poco chiaro il percorso per raggiungere la coscienza dell’IA. Inoltre, solleva la domanda se la coscienza umana possa essere ridotta unicamente a processi computazionali.
- Il difficile problema della coscienza: Il “difficile problema della coscienza” è una questione chiave nello studio della coscienza, specialmente se si considera la sua replicazione nell’intelligenza artificiale. Esso riguarda l’esperienza soggettiva della coscienza, i qualia (le esperienze fenomeniche) o “come” sia avere esperienze soggettive. Nel contesto dell’intelligenza artificiale, questo problema solleva questioni fondamentali sulla possibilità di creare macchine che non solo mostrino comportamenti intelligenti, ma che abbiano anche una coscienza soggettiva. Attualmente, non abbiamo una comprensione chiara della coscienza, e la letteratura che la circonda è ancora insoddisfacente.
- Dilemma etico: Le considerazioni etiche riguardanti la coscienza dell’IA aggiungono un ulteriore livello di complessità e ambiguità a questa ricerca ambiziosa. La coscienza artificiale solleva interrogativi etici come: se un’intelligenza artificiale può comprendere, apprendere e adattarsi come gli esseri umani, dovrebbe essere concessa qualche forma di diritto? In caso di comportamenti illegali commessi da un’intelligenza artificiale cosciente, chi sarebbe ritenuto responsabile? Se un’intelligenza artificiale cosciente venisse distrutta, sarebbe considerato un danno alla proprietà o qualcosa di simile all’omicidio?
I progressi nelle neuroscienze e negli algoritmi di apprendimento automatico aprono la possibilità di una più ampia intelligenza artificiale generale. Tuttavia, la coscienza artificiale rimarrà un enigma e un argomento di dibattito tra ricercatori, leader tecnologici e filosofi. I sistemi di intelligenza artificiale che acquisiscono coscienza comportano vari rischi che richiedono un’approfondita indagine.