Cosa fa arrabbiare Gary Marcus?
Intervista di Analytics India Magazine
In un’interazione esclusiva e davvero rivelatrice con Analytics India Magazine, Gary Marcus ha espresso la sua critica su come l’IA non stia progredendo come il mondo pensa che faccia.
“L’IA attuale è analfabeta. Può fingere di farsi strada, ma non capisce cosa legge”
Gary Marcus in un’intervista con Analytics India Magazine
L’illustre professore di psicologia e scienze neurali alla New York University è un critico popolare di deep learning e AGI. Gary ha partecipato a dibattiti con Yann LeCun e Yoshua Bengio , ha scritto articoli e pubblicato libri per criticare l’attuale approccio al deep learning.
All’inizio degli anni ’90, Gary e Pinker avevano pubblicato un articolo in cui affermavano che le reti neurali non potevano nemmeno apprendere le abilità linguistiche come potrebbe fare un bambino piccolo. Nel 2012, Gary ha pubblicato un articolo sul New Yorker intitolato ” Il Deep Learning è una rivoluzione nell’IA? ” affermando che le tecniche sfruttate da Geoff Hinton non erano abbastanza potenti per comprendere le basi del linguaggio naturale, tanto meno duplicare il pensiero umano.
“Hinton ha costruito una scala migliore, ma una scala migliore non ti porta necessariamente sulla luna”, ha scritto. Nel 2022, pensa ancora che regga. Gary ha parlato della pista su cui ci troviamo rispetto alla pista su cui dovremmo essere per l’AGI. “La pista specifica su cui ci troviamo sono i modelli linguistici di grandi dimensioni, un’estensione dei big data. La mia opinione su quelli non è ottimista. Sono meno sorprendenti nella loro capacità di non essere tossici, dire la verità o essere affidabili. Non credo che vogliamo costruire un’intelligenza generale che sia inaffidabile, disinformi le persone e sia potenzialmente pericolosa. Ad esempio, hai GPT-3 che raccomanda alle persone di suicidarsi.
Ci sono stati enormi progressi nella traduzione automatica, ma non nella comprensione automatica. Il ragionamento morale non è da nessuna parte e non penso che l’IA sia un campo salutare in questo momento. Le persone non stanno riconoscendo i limiti. DALL-E sembra progredire in qualche modo perché rende queste immagini molto carine. Tuttavia, in altri modi, non sta progredendo affatto. Non ha risolto il problema delle lingue. Riconosce alcune parti di ciò che dici, ma non riconosce le loro relazioni. Questo problema non andrà magicamente via. Oggi abbiamo forse un miliardo di volte i dati, ma questi problemi di base sulla composizionalità non hanno ancora una soluzione. Quindi l’IA non è affidabile”, ha detto.
Discutere per il nativismo
In filosofia, l’empirismo è la visione che tutti i concetti hanno origine nell’esperienza e si impara solo dalle esperienze. L’intelligenza artificiale si basa proprio su queste basi e quindi i modelli vengono addestrati su tonnellate di dati.
Gary detiene la posizione opposta che sostiene la conoscenza innata. “Se guardi i dati per gli esseri umani e altri animali, nasciamo sapendo qualcosa sul mondo. E sfortunatamente, la maggior parte degli informatici non è addestrata in psicologia dello sviluppo”, ha detto. In un dibattito del 2017 con Yann LeCun, Marcus ha affermato che il deep learning non era capace di molto di più che semplici compiti di percezione.
“Se le reti neurali ci hanno insegnato qualcosa, è che il puro empirismo ha i suoi limiti”, ha detto nel dibattito. Ha ulteriormente discusso gli svantaggi dell’approccio empirista. “Le grandi reti non hanno rappresentazioni integrate del tempo, solo una rappresentazione marginale dello spazio e nessuna rappresentazione di un oggetto. Fondamentalmente, il linguaggio consiste nel mettere in relazione le frasi che senti, e sistemi come GPT-3 non lo fanno mai. Fornisci loro tutti i dati del mondo e non stanno ancora derivando l’idea che il linguaggio riguardi la semantica. Stanno facendo un’illusione. Non riescono a riconoscere l’ironia, il sarcasmo o la contraddizione. Vedo questi sistemi come un test dell’ipotesi empirista, ed è un fallimento”.
Che dire della singolarità tecnologica
L’idea della singolarità tecnologica è che gli esseri umani ordinari un giorno saranno superati da macchine artificialmente intelligenti o da un’intelligenza biologica potenziata dal punto di vista cognitivo. La discussione è passata dal regno della fantascienza a un dibattito serio. Ma Gary crede che non ci sia “nessun momento magico di singolarità”. Questo perché l’intelligenza non è singolare, ma invece sfaccettature diverse, da qualche parte è migliore degli umani e da qualche parte no.
“Nella pura potenza di calcolo, le macchine superano le persone. Non c’è dubbio che un computer sia migliore della persona media quando si analizzano le posizioni su una scacchiera. Ma la capacità di un bambino di otto anni di guardare un film Pixar e capire cosa sta succedendo supera di gran lunga qualsiasi macchina”, ha detto Gary. “L’IA attuale è analfabeta. Può fingere di farsi strada, ma non capisce cosa legge. Quindi l’idea che tutte queste cose cambieranno in un giorno e in quel giorno magico, le macchine saranno più intelligenti delle persone, è una grossolana semplificazione”.
Il test di Turing è affidabile?
Il test di Turing, sviluppato nel 1950 da Alan Turing, il padre fondatore dell’IA, è uno dei test più classici per misurare la crescita dell’IA. Si gioca sotto forma di un gioco tra due umani e un computer, con l’obiettivo finale che il computer deve ingannare gli umani facendogli pensare che anche la macchina sia altrettanto umana. Ma quando si tratta di misurare l’IA oggi, Gary afferma: ” Il test di Turing non è molto buono. Gli esseri umani sono creduloni e le macchine possono essere evasive. Se vuoi costruire un sistema che inganni le persone, non rispondi ad alcune di queste domande”, ha detto.
“Eugene Gustman è stato un sistema che ha vinto una versione ridotta del concorso per alcuni minuti fingendo che non parlasse inglese. Fingeva di essere un ragazzo di 13 anni di Odessa il cui inglese non era perfetto. Avrebbe risposto con battute per eludere rivelando i suoi limiti e, a un occhio inesperto, era abbastanza convincente. Un professionista potrebbe ancora riconoscere i limiti. Tutto ciò che ci dice è che gli esseri umani pensano che le macchine in grado di parlare siano intelligenti, ma si è rivelato falso.
Questo è ciò che sta accadendo con GPT-3. A volte dice cose intelligenti, ma non c’è una concezione a lungo termine di ciò di cui stai parlando. Non ricorda le risposte da un minuto all’altro; non c’è coerenza, non c’è vera intelligenza. Gli esseri umani non sono bravi a fare i test e le macchine se ne accorgono e finiscono per superare il test. Ma ciò non significa che abbiano la comprensione di ciò che alla fine stiamo cercando”.
Affrontare le critiche online e il manzo di Gary con Yann LeCun
Marcus non lascia nulla di intentato per ostentare la sua ferocia nel chiamare le “celebrità” della comunità dell’IA. Questo può essere visto nei suoi dibattiti con i pionieri dell’IA Yann Lecun nel 2017 e Yoshua Bengio nel 2019. Infatti, in risposta alla sua critica del 2018 al deep learning, LeCun ha affermato che “il numero di preziose raccomandazioni mai fatte da Gary Marcus è esattamente zero .’ Mentre faceva questo commento online, LeCun era d’accordo con la dichiarazione di Gary sulla necessità di un macchinario innato al pubblico della New York University.
” LeCun mi ha preso in giro “
ha detto Gary
“Ho detto che c’erano dieci problemi e lui ha detto che erano per lo più sbagliati. Non ha scritto una lunga critica, ha solo detto che per lo più ho torto e nessuno ha mai dimostrato che fossero sbagliati. Ed era come se le persone seguissero un leader politico; tutti su Twitter mi sono saltati addosso. Avere una persona famosa ti dice che hai torto non significa che hai torto”.
“Ho scritto un articolo dicendo che il deep learning sta colpendo un muro e le persone hanno iniziato a fare cartoni animati sul deep learning che scavalcano il muro. Nessuno di loro sembrava aver letto il contenuto intellettuale, che non è che non puoi fare nulla con il deep learning, ma che dovrai usarlo in associazione con altri sistemi perché ci sono queste particolari debolezze”.
I modelli linguistici di grandi dimensioni sono la tecnologia sbagliata per un’IA responsabile
L’IA responsabile ed etica è oggi una delle principali preoccupazioni del settore tecnologico. Alcuni esempi chiave di questo sono GPT-3 che chiede a una persona di suicidarsi o Delphi che afferma che il genocidio andrebbe bene se tutti ne fossero contenti. “I modelli linguistici di grandi dimensioni non sono la tecnologia giusta per un’IA responsabile ed etica”, ha affermato Gary. “Sono molto bravi a catturare le associazioni statistiche, ma non sono bravi a essere responsabili ed etici. Finché la maggior parte dell’investimento è in quello, abbiamo un problema.
Non c’è niente di sbagliato nell’avere grandi quantità di dati e, a parità di altre condizioni, grandi quantità sono meglio di piccole. Ma abbiamo bisogno di sistemi che possano prendere esplicite rappresentazioni inglesi e ragionare in base ad esse. Abbiamo bisogno di una tecnologia in cui un sistema possa proporre un’azione, diciamo, rispondere a un utente e valutare: ciò potrebbe causare danni? Dobbiamo averlo, e non lo facciamo. Non siamo nemmeno vicini. Nessun sistema può leggere una conversazione. I migliori che abbiamo sono i filtri di contenuto che cercano un linguaggio odioso. Ma sono molto ingenui per quanto riguarda il modo in cui valutano l’incitamento all’odio o la disinformazione”.
Sebbene Gary non fosse sicuro della direzione in cui sarebbe proceduto lo sviluppo dell’IA, ha sottolineato la dipendenza dai dati storici o l’inclusione dell’etica dei soli ricercatori di IA come due dei fattori chiave che rendono l’IA meno responsabile. Ha inoltre parlato dell’approccio ibrido alla costruzione di modelli di intelligenza artificiale, che combina i sistemi di apprendimento classico e profondo. All’interno degli approcci ibridi, l’approccio neurosimbolico è quel poco che sappiamo ancora della tecnica. L’IA neurosimbolica includerebbe reti neurali e sistemi simbolici.
“Devi essere in grado di rappresentare le cose in modo astratto e simbolico. È solo che non vedo come arrivare all’IA senza almeno farlo”.
DI AVI GOPANI da analyticsindiamag.com