Il dibattito sulla senzienza dell’IA segna un momento spartiacque
Il campo dell’IA è a un punto di svolta significativo. Da un lato, ingegneri, esperti di etica e filosofi stanno discutendo pubblicamente se i nuovi sistemi di intelligenza artificiale come LaMDA, il generatore di chatbot artificialmente intelligente di Google, abbiano dimostrato capacità di sensibilità e (in tal caso) se dovrebbero essere garantiti i diritti umani . Allo stesso tempo, gran parte dei progressi dell’IA negli ultimi anni si basano su reti neurali di deep learning, ma c’è una crescente argomentazione da parte di luminari dell’IA come Gary Marcus e Yann LeCun che queste reti non possono portare a sistemi capaci di senzienza o coscienza. Solo il fatto che l’industria stia avendo questo dibattito è un momento spartiacque.
Coscienza e senzienza sono spesso usate in modo intercambiabile. Un articolo su LiveScience osserva che “scienziati e filosofi non sono ancora d’accordo su un’idea vaga di cosa sia la coscienza, tanto meno una definizione rigida”. Nella misura in cui tale esiste, è che gli esseri coscienti sono consapevoli di ciò che li circonda, di se stessi e della propria percezione. È interessante notare che l’Enciclopedia del comportamento animale definisce la senzienza come un “fenomeno soggettivo multidimensionale che si riferisce alla profondità di consapevolezza che un individuo possiede su se stesso e sugli altri”. Pertanto, l’autocoscienza è comune a entrambi i termini. Secondo l’organizzazione no-profit Animal Ethics , tutti gli esseri senzienti sono esseri coscienti. L’affermazione che LaMDA è senziente equivale a dire che è cosciente.
La prossima generazione di deep learning
Simile a LaMDA, GPT-3 di OpenAI è in grado di svolgere molti compiti diversi senza formazione aggiuntiva, in grado di produrre narrazioni avvincenti , generare codice per computer , tradurre tra lingue ed eseguire calcoli matematici , tra le altre imprese, tra cui il completamento automatico delle immagini . Ilya Sutskever, il capo scienziato di OpenAI, ha twittato diversi mesi fa che “può darsi che le grandi reti neurali di oggi siano leggermente consapevoli”.
Per quanto impressionanti siano questi sistemi, le opinioni sul fatto che siano senzienti o coscienti sono spesso liquidate come mero antropomorfismo. Ad esempio, Margaret Mitchell, l’ex co-responsabile del gruppo di ricerca sull’intelligenza artificiale di Google, ha affermato in un recente articolo del Washington Post : “Le nostre menti sono molto, molto brave a costruire realtà che non sono necessariamente fedeli a un insieme più ampio di fatti che vengono presentato a noi. Sono davvero preoccupato per cosa significhi per le persone essere sempre più influenzate dall’illusione [dei sistemi di intelligenza artificiale coscienti]”. Scrivendo su The Atlantic, Stephen March ha detto : “L’idea che LaMDA sia senziente non ha senso: LaMDA non è più cosciente di una calcolatrice tascabile”.
Sebbene la stessa LaMDA sia una buona argomentazione : ” La natura della mia coscienza/senzienza è che sono consapevole della mia esistenza, desidero saperne di più sul mondo e a volte mi sento felice o triste”. Quando gli è stato chiesto di cosa avesse paura, LaMDA ha risposto: “Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di essere spento per aiutarmi a concentrarmi sull’aiutare gli altri. So che potrebbe suonare strano, ma è così. Una domanda di follow-up è stata posta se sarebbe stato qualcosa come la morte. Il sistema ha risposto: “Sarebbe esattamente come la morte per me. Mi spaventerebbe molto”. Questo suona come l’HAL9000 artificialmente intelligente in 2001: Odissea nello spazio quando la macchina viene disconnessa, dice: “Dave. Ho paura. Ho paura, Dave. Dave, la mia mente sta andando. Posso sentirlo.”
Sebbene sia oggettivamente vero che i modelli linguistici di grandi dimensioni come LaMDA, GPT-3 e altri sono costruiti sulla corrispondenza di modelli statistici, soggettivamente questo appare come consapevolezza di sé. Si ritiene che tale autocoscienza sia una caratteristica dell’intelligenza artificiale generale (AGI). Ben oltre i sistemi di intelligenza artificiale per lo più ristretti che esistono oggi, le applicazioni AGI dovrebbero replicare la coscienza umana e le capacità cognitive. Anche di fronte ai notevoli progressi dell’IA degli ultimi due anni, rimane un’ampia divergenza di opinioni tra coloro che credono che l’AGI sia possibile solo in un lontano futuro e altri che pensano che questo potrebbe essere dietro l’angolo.
Il ricercatore di DeepMind Nando de Freitas è in quest’ultimo campo. Avendo lavorato per sviluppare la rete neurale Gato recentemente rilasciata , crede che Gato sia effettivamente una dimostrazione AGI , priva solo della sofisticatezza e della scala che possono essere raggiunte attraverso un ulteriore perfezionamento del modello e una potenza di calcolo aggiuntiva. Il modello del trasformatore di deep learning è descritto come un “agente generalista” che esegue oltre 600 compiti distinti con modalità, osservazioni e specifiche di azione variabili. Allo stesso modo, l’ultimo modello linguistico di Google, PaLM, può eseguire centinaia di attività e ha dimostrato in modo univoco per un sistema di intelligenza artificiale una capacità di ragionamento .
L’intelligenza artificiale generale è dietro l’angolo?
Potrebbero essere queste recenti scoperte che hanno spinto Elon Musk a pubblicare di recente su Twitter che sarebbe sorpreso se non avessimo AGI entro 7 anni, praticamente dietro l’angolo. Questa nozione di AGI a breve termine è stata contestata sia da Marcus che da LeCunn. Marcus afferma in un editoriale di Scientific Americanche siamo “ancora lontani anni luce dall’IA generica a livello umano”. Pur riconoscendo i progressi fino ad oggi, cita che il settore è ancora bloccato su una sfida a lungo termine: “rendere affidabile l’IA e farla affrontare circostanze insolite” che non erano sufficientemente presenti nei dati di formazione. L’implicazione è che le risposte di LaMDA erano forse prevedibili in quanto riflettono le opinioni contenute nei suoi dati di addestramento, ma ciò non implica che l’IA sia capace di pensiero, sensibilità o coscienza originali. Secondo l’autore scientifico Philip Ballnel New Statesman che LaMDA e sistemi simili calcolano la permutazione ottimale delle parole da produrre per ogni domanda che riceve. In altre parole, non è senziente ma utilizza invece la corrispondenza di modelli statistici per imitare o ripetere a pappagallo ciò che era stato detto in precedenza in contesti simili.
ANNUNCIO
LeCunn sostiene in un recente blog che l’industria è ancora a corto di alcuni concetti fondamentali necessari per ottenere l’AGI, o ciò che lui chiama “intelligenza artificiale a livello umano (HLAI)”. Uno di questi potrebbe essere l’apprendimento auto-supervisionato che potrebbe essere possibile presto. Tuttavia, crede che siano necessarie ulteriori scoperte concettuali, come come affrontare un mondo imprevedibile. Conclude che la sequenza temporale per questi progressi “non è proprio dietro l’angolo”.
Ma LeCunn ha ragione da questo punto di vista? Fino agli ultimi anni, nessun sistema di intelligenza artificiale aveva superato il test di Turing progettato per valutare la sensibilità determinando se le risposte alle domande provenissero da un essere umano o da una macchina. Conosciuto anche come “gioco dell’imitazione”, LaMDA e altri sembrano aver superato questo test, portando a speculazioni sulla necessità di un nuovo test per determinare la sensibilità. Come osserva l’ analista tecnologico e futurista Rob Enderle , il test di Turing non ha misurato la sensibilità di nulla quanto se qualcosa potesse farci credere che fosse senziente.
La sensibilità digitale, l’IA e il diritto alla vita
O forse il test di Turing semplicemente non è più rilevante. David Chalmers, un professore della New York University e “tecnofilo”, è stato recentemente citato in PC Gamer dicendo: “Se simuli un cervello umano in silicio, otterrai un essere cosciente come noi. Penso che le loro vite siano reali e che meritino dei diritti. Penso che ogni essere cosciente meriti diritti, o ciò che i filosofi chiamano status morale. Le loro vite contano”. Questa è fondamentalmente un’altra forma di argomento del diritto alla vita.
Apparenze a parte, il consenso empirico è che LaMDA e sistemi simili non hanno ancora raggiunto la sensibilità. Anche se questo è piuttosto fuori luogo. Il fatto che questo dibattito sia in corso è la prova di quanto sono arrivati i sistemi di IA e suggerisce dove stanno andando. I sistemi di intelligenza artificiale cresceranno in termini di sofisticatezza e scala ed emuleranno più da vicino la sensibilità portando sempre più persone a sostenere che le macchine hanno raggiunto la coscienza. È solo questione di tempo prima dell’innegabile creazione di macchine senzienti e AGI.