Il dibattito senza fine sull’AGI (intelligenza artificiale Generale
AlphaGo di DeepMind è una delle più grandi storie di successo nell’IA.
Circa vent’anni fa, la start-up di intelligenza artificiale Webmind ha introdotto l’idea di un cervello bambino digitale, una mente digitale che manifesterebbe strutture e dinamiche di livello superiore di un cervello umano. Sebbene il fisico Mark Gubrud abbia usato per la prima volta il termine AGI nel 1997, il fondatore di Webmind Ben Goertzel e il cofondatore di DeepMind Shane Legg sono stati determinanti nel rendere popolare il termine.
Due decenni dopo, abbiamo strumenti di intelligenza artificiale come GPT-3 che producono testo simile a quello umano e DALL.E che crea immagini incredibili da input di testo, ecc. Eppure il Santo Graal AGI è ancora fuori portata. Quindi la domanda da un milione di dollari è: siamo sulla strada giusta?
AGI è la stella polare di aziende come OpenAI, DeepMind e AI2. Mentre la missione di OpenAI è quella di essere il primo a costruire una macchina con capacità di ragionamento simili a quelle umane , il motto di DeepMind è ” risolvere l’intelligenza “.
AlphaGo di DeepMind è una delle più grandi storie di successo nell’IA. In una sfida di sei giorni nel 2016, il programma per computer ha sconfitto il più grande giocatore di Go del mondo Lee Sedol. L’ultimo modello di DeepMind, Gato, è un agente generalista multimodale, multi-task e multi-incarnazione. Il modello 2021 di Google, GLaM, può eseguire attività come la risposta a domande in dominio aperto, la lettura del buon senso, la comprensione della lettura nel contesto, le attività SuperGLUE e l’inferenza del linguaggio naturale.
DALL.E di OpenAI ha fatto impazzire solo pochi mesi fa con rendering fantasiosi basati su input di testo. Eppure tutte queste conquiste impallidiscono in confronto all’intelligenza del bambino umano.
Le macchine devono ancora decifrare la percezione sensoriale, il ragionamento basato sul buon senso, le capacità motorie, la risoluzione dei problemi o la creatività a livello umano.
Cos’è l’AGI?
Parte del problema è che non esiste una definizione di AGI. I ricercatori difficilmente possono essere d’accordo su cosa sia o quali tecniche ci porteranno lì. Nel 1965, l’informatico IJ Good disse: “La prima macchina ultra-intelligente è l’ultima invenzione che l’uomo abbia mai bisogno di realizzare”. Il filosofo di Oxford Nick Bostrom ha fatto eco alla stessa idea nel suo rivoluzionario lavoro Superintelligence. “Se i ricercatori sono in grado di sviluppare un’IA forte, la macchina richiederebbe un’intelligenza pari a quella umana. Avrebbe una coscienza autocosciente che ha la capacità di risolvere problemi, imparare e pianificare per il futuro”, ha affermato IBM. Molti ricercatori ritengono che tale auto-miglioramento ricorsivo sia il percorso verso l’AGI.
“Ci sono tonnellate di progressi nell’IA, ma ciò non implica che ci siano progressi nell’AGI”, ha affermato Andrew Ng.
Per risolvere l’AGI, i ricercatori stanno creando un’IA multitasking e generalizzata. Prendi Gato di DeepMind , per esempio. Il modello AI può riprodurre Atari, didascalia immagini, chattare e manipolare un vero braccio robotico.
“L’IA attuale è analfabeta”, ha detto il professore della NYU Gary Marcus. “Può fingere di farsi strada, ma non capisce cosa legge. Quindi l’idea che tutte queste cose cambieranno in un giorno e in quel giorno magico le macchine saranno più intelligenti delle persone è una grossolana semplificazione”.
In un recente post su Facebook, Yann LeCun ha dichiarato: “Non abbiamo ancora un paradigma di apprendimento che consenta alle macchine di imparare come funziona il mondo come fanno gli umani e molti bambini non umani”. In altre parole, la strada per AGI è accidentata.
Il dibattito
Nando de Freitas, uno scienziato di intelligenza artificiale presso DeepMind, ha twittato “il gioco è finito” dopo il rilascio di Gato. Ha affermato che la scalabilità e la sicurezza sono ora le sfide per raggiungere l’AGI. Ma non tutti i ricercatori sono d’accordo. Ad esempio, Gary Marcus ha affermato che mentre Gato è stato addestrato a svolgere tutti i compiti che può svolgere, non sarebbe in grado di analizzare e risolvere logicamente quel problema di fronte a una nuova sfida. Li chiamava trucchi da salotto e in passato li chiamava illusioni per ingannare gli umani. “Dai loro tutti i dati del mondo e ancora non stanno derivando l’idea che il linguaggio riguardi la semantica. Stanno facendo un’illusione”, ha detto.
Oliver Lemon della Heriot-Watt University di Edimburgo, nel Regno Unito, ha affermato che le affermazioni audaci dei risultati ottenuti dall’IA non sono vere. Sebbene questi modelli possano fare cose impressionanti, gli esempi sono “scelti con cura”. Lo stesso si può dire per DALL-E di OpenAI, ha aggiunto.
Grandi modelli linguistici
I modelli linguistici di grandi dimensioni sono reti neurali complesse addestrate su un enorme corpus di testo. Ad esempio, GPT-3 è stato addestrato su 700 gigabyte di dati. Google, Meta, DeepMind e AI2 hanno i propri modelli linguistici.
Indubbiamente, GPT-3 è stato un punto di svolta. Tuttavia, quanto più vicini possono portarci gli LLM all’AGI. Marcus, nativista e scettico dell’AGI, sostiene l’approccio dell’apprendimento innato rispetto all’apprendimento automatico. Crede che non tutte le opinioni derivino dall’esperienza. “Le grandi reti non hanno rappresentazioni del tempo integrate”, ha affermato Marcus. “Fondamentalmente, il linguaggio consiste nel mettere in relazione le frasi che senti, e sistemi come GPT-3 non lo fanno mai”.
Gli LLM non hanno una conoscenza del buon senso sul mondo, quindi come possono gli esseri umani fare affidamento su di esso? Melanie Mitchell, una scienziata del Santa Fe Institute, ha scritto in una colonna : “Il nocciolo del problema, a mio avviso, è che la comprensione del linguaggio richiede la comprensione del mondo e una macchina esposta solo al linguaggio non può ottenere tale comprensione”.
Inoltre, poiché questi modelli sono formati su tonnellate di dati storici, mostrano segni di pregiudizi, razzismo, sessismo e discriminazione. “Vorremmo che le macchine fossero effettivamente in grado di ragionare su queste cose e persino dirci che i tuoi valori morali non sono coerenti”, ha detto Gary.
Dov’è l’AGI?
Alcuni mesi fa, Elon Musk ha dichiarato al New York Times che l’IA sovrumana è a meno di cinque anni di distanza. Jerome Pesenti, VP of AI di Meta, ha ribattuto: “Elon Musk non ha idea di cosa stia parlando. Non esiste una cosa come l’AGI, e non siamo neanche lontanamente all’altezza dell’intelligenza umana”.
La classica risposta di Musk è stata: “Facebook fa schifo”.
“Eliminiamo le sciocchezze dell’AGI e dedichiamo più tempo ai problemi urgenti”, ha affermato Andrew Ng . L’intelligenza artificiale sta facendo enormi passi avanti in diversi ceti sociali: AlphaFold prevede la struttura delle proteine; auto a guida autonoma, assistenti vocali e robot automatizzano molte attività umane. Ma è troppo presto per affermare con certezza che le macchine sono diventate intelligenti.
Di Avi Gopani da analyticsindiamag.com