Un gruppo di 19 esperti, tra cui specialisti in intelligenza artificiale (AI), scienziati cognitivi e filosofi, ha condotto un’approfondita indagine utilizzando metodi scientifici diversificati per esaminare se l’IA possa essere considerata cosciente. L’accento principale è stato posto sulla necessità di sviluppare metodi in evoluzione piuttosto che cercare una risposta definitiva. In ogni caso, la conclusione a cui sono giunti è che “l’attuale intelligenza artificiale non è cosciente”.
Recentemente, Science e il New York Times hanno riportato che un gruppo di ricerca congiunto composto da 17 individui, tra cui il professor Yoshua Bengio dell’Università di Montreal, noto come uno dei pionieri dell’apprendimento profondo, ha pubblicato un articolo dal titolo “Coscienza nell’IA: Insights dalla Scienza della Coscienza” su arXiv.
Questo gruppo di ricerca include il professor Bengio, il filosofo Robert Long del AI Safety Center, un’organizzazione non-profit, e Megan Peters, una professoressa di scienze cognitive presso il Dipartimento di Scienze Sociali della CAU. Il team è composto da esperti che si occupano di questioni legate all’intelligenza artificiale, tra cui Patrick Butlin, un ricercatore presso l’Institute for the Future of Humanity dell’Università di Oxford.
Invece di utilizzare un semplice test a risposta binaria per stabilire se l’intelligenza artificiale sia cosciente o meno, i ricercatori hanno creato una lista di attributi che potrebbero suggerire, seppur non dimostrare, la presenza di coscienza nell’IA. Nel documento di 120 pagine pubblicato il mese scorso, sono stati applicati 14 criteri diversi utilizzando la teoria della coscienza umana a modelli di IA come “ChatGPT”, “Bard”, “Bing” e “Erniebot” di Baidu.
La conclusione principale è che, al momento, non esistono modelli di IA che possano essere considerati coscienti. Tuttavia, i ricercatori hanno sottolineato che trovare una risposta definitiva a questa domanda è un compito arduo, e quindi hanno posto l’accento sulla necessità di sviluppare ulteriori metodi di indagine in futuro.
I ricercatori hanno anche iniziato definendo il concetto di “coscienza”. Poiché non è possibile misurare le onde cerebrali come si farebbe con esseri umani o animali, hanno adottato un “approccio basato sulla teoria”. Questo metodo implica l’applicazione di teorie precedentemente sviluppate per gli esseri umani e gli animali all’intelligenza artificiale.
Sono state esaminate sei teorie fondamentali, tra cui la “teoria dell’elaborazione ricorsiva”, che sostiene che la coscienza emerga quando le informazioni passano attraverso cicli di feedback e si combinano in uno spazio di lavoro simile a un’applicazione informatica. Inoltre, sono state considerate teorie che mettono l’accento sull’importanza della percezione e dell’interazione con l’ambiente circostante e sulla necessità di feedback dall’esterno.
I ricercatori hanno identificato 14 indicatori potenziali di coscienza e li hanno applicati a modelli di IA ampiamente noti. Ad esempio, il modello “PaLM-E” di Google, che rileva l’ambiente circostante attraverso vari sensori, ha soddisfatto i criteri di “percezione e interazione con l’ambiente circostante”. D’altra parte, l'”AdA (Adaptive Agent)” di DeepMind, addestrato per controllare un avatar in uno spazio 3D simulato, ha ottenuto un punteggio elevato per la sua capacità di comprendere lo spazio.
Tuttavia, nessun modello ha superato positivamente tutti gli indicatori contemporaneamente, portando alla conclusione che al momento non esista un candidato forte per l’IA cosciente.
I ricercatori hanno enfatizzato che questo studio è solo l’inizio di una discussione in corso. Grace Lindsay, professoressa di psicologia e neuroscienze presso la New York University, ha sottolineato che per ottenere conclusioni significative, sarà necessario sviluppare teorie più accurate specificamente pensate per l’intelligenza artificiale. Ha anche riconosciuto che il problema della “scatola nera”, che impedisce di comprendere completamente il funzionamento interno dell’IA, costituisce una limitazione fondamentale della ricerca.
Tuttavia, Robert Long ha osservato: “Questo studio fornisce una struttura per valutare l’intelligenza artificiale sempre più simile a quella umana” e ha aggiunto: “È significativo perché introduce un approccio metodologico sistematico che mancava in precedenza”.
Adil Raj, un neuroscienziato computazionale della Monash University e ricercatore presso il Canadian Institute for Advanced Study (CIFAR), ha dichiarato: “Stiamo iniziando una discussione anziché cercare una risposta definitiva. Dovremo continuare a lavorare su questa lista di criteri”.