“Le macchine possono pensare?” Questa è la domanda che il famoso matematico e informatico britannico Alan Turing ha sollevato nel suo celebre articolo intitolato ‘Computing Machinery and Intelligence’. In risposta a questa domanda, Turing ha ideato il “gioco di imitazione”, successivamente noto come il “Test di Turing”, al fine di determinare se un computer fosse in grado di manifestare un comportamento intelligente indistinguibile da quello di un essere umano. Tuttavia, tutto ciò è avvenuto oltre 70 anni fa. Oggi, nel campo dell’intelligenza artificiale, la domanda più affascinante è se gli avanzamenti recenti potrebbero, in teoria, portare alla creazione di intelligenza artificiale dotata di coscienza.
L’argomento è diventato oggetto di grande interesse, soprattutto dopo le affermazioni dell’ex ingegnere di Google, Blake Lemoine, secondo il quale il chatbot LaMDA che stava testando era dotato di coscienza. Con aziende come OpenAI che perseguono l’obiettivo di creare un’intelligenza artificiale generale (AGI), una forma di intelligenza artificiale teorica in grado di replicare le capacità cognitive umane in modo generale, la questione della coscienza nell’IA è stata oggetto di vivaci discussioni. Anche se l’AGI non richiede necessariamente la coscienza, la domanda su “come possiamo determinare se una macchina diventa cosciente” è stata posta.
Con i notevoli progressi compiuti in questo campo, molti ricercatori e membri della comunità di intelligenza artificiale ritengono che il “Test di Turing” non sia più un indicatore rilevante. Questo test è stato originariamente concepito per valutare il livello di intelligenza delle macchine e non ha l’obiettivo di misurare la coscienza. Tuttavia, di recente, un gruppo di 19 scienziati informatici, neuroscienziati e filosofi ha proposto un approccio per valutare la coscienza nell’intelligenza artificiale attraverso una lunga lista di attributi. Benché non costituiscano una prova definitiva di coscienza, questa lista comprende 14 “indicatori di coscienza” che un modello di intelligenza artificiale cosciente potrebbe mostrare.
Gli autori della ricerca, intitolata “Consciousness in Artificial Intelligence: Insights from the Science of Consciousness,” affermano: “Abbiamo esaminato diverse teorie scientifiche rilevanti sulla coscienza, tra cui la teoria dell’elaborazione ricorrente, la teoria dello spazio di lavoro globale, le teorie di ordine superiore, l’elaborazione predittiva e la teoria dello schema di attenzione. Da queste teorie abbiamo dedotto le “proprietà indicative” della coscienza, definite in termini computazionali che ci consentono di valutare i sistemi di intelligenza artificiale alla luce di queste proprietà.”
Tuttavia, i ricercatori hanno testato modelli di intelligenza artificiale esistenti, come il PaLM-E di Google e l’Adaptive Agent di DeepMind, e non hanno riscontrato prove significative che dimostrassero che tali modelli fossero dotati di coscienza. Anche se alcuni LLM, come i modelli GPT, possono sembrare estremamente competenti nella comprensione e nell’elaborazione del linguaggio inglese, ciò non implica necessariamente che essi siano coscienti.
È importante notare che questo documento è prestampato, il che significa che non è stato ancora sottoposto a revisione paritaria. Inoltre, c’è un dibattito aperto su quanto le teorie sulla coscienza sviluppate per gli esseri umani possano essere applicate all’intelligenza artificiale.
Alcuni ricercatori stanno lavorando a un test di coscienza più ampio che potrebbe essere applicato non solo all’intelligenza artificiale, ma anche ad altre entità come gli organoidi, gli animali e i neonati. Eric Elmoznino, uno degli autori dell’articolo, ha dichiarato: “Anche se gli indicatori stessi sono suscettibili di cambiamenti man mano che le teorie sulla coscienza si evolvono, speriamo che questo approccio contribuirà a rendere la discussione sulla coscienza nell’intelligenza artificiale più basata su evidenze.”
Lemoine ha perso il lavoro presso Google per aver sostenuto che LaMDA fosse dotato di coscienza, ma non è l’unico ricercatore a fare simili affermazioni. In precedenza, Ilya Sutskever, co-fondatore di OpenAI, aveva affermato che le grandi reti neurali potrebbero già essere in qualche modo coscienti. Anche se queste affermazioni hanno suscitato reazioni intense, entrambi i ricercatori hanno mantenuto le loro posizioni. In effetti, alcuni sostengono che, se il funzionalismo computazionale è valido, le macchine coscienti potrebbero essere una realtà raggiungibile nel prossimo futuro.
Tuttavia, vale la pena notare che discutere di questo argomento può contribuire alla crescente preoccupazione pubblica sull’intelligenza artificiale. Si è già scritto molto sui potenziali rischi legati all’eventuale raggiungimento dell’intelligenza artificiale a livello umano o alla sua presunta coscienza, e alcuni addirittura temono che possa comportare l’estinzione dell’umanità. Pertanto, è importante che ci sia una comunicazione responsabile e una comprensione contestuale delle capacità e dei vantaggi dell’intelligenza artificiale, senza alimentare unicamente la narrativa della paura.
Inoltre, va considerato che il concetto di coscienza è complesso e sfuggente ed è stato oggetto di indagini filosofiche e ricerche scientifiche per secoli. La nostra comprensione umana della coscienza, al giorno d’oggi, è ancora limitata, sia dal punto di vista filosofico che scientifico. Data questa limitazione, il tentativo di comprendere e creare un’intelligenza artificiale cosciente rimane una sfida profonda. Tuttavia, la ricerca in questo campo potrebbe offrire preziose informazioni sia sullo sviluppo dell’intelligenza artificiale che sulla nostra stessa comprensione della coscienza. Nel frattempo, mentre continuiamo a esplorare questa frontiera, l’intelligenza artificiale prosegue la sua rapida evoluzione.