AI Weekly: il perno di OpenAI dalla robotica riconosce il potere della simulazione Alla fine della scorsa settimana, OpenAI ha confermato di aver chiuso la sua divisione di robotica in parte a causa delle difficoltà nella raccolta dei dati necessari per superare le barriere tecniche. Dopo anni di ricerche su macchine che possono imparare a svolgere compiti come risolvere un cubo di Rubik , il cofondatore dell’azienda Wojciech Zaremba ha affermato che ha senso che OpenAI sposti la sua attenzione su altri domini, dove i dati di formazione sono più facilmente disponibili.

Al di là delle motivazioni commerciali per evitare la robotica a favore della sintesi dei media e dell’elaborazione del linguaggio naturale , la decisione di OpenAI riflette un crescente dibattito filosofico nella ricerca sull’intelligenza artificiale e sulla robotica. Alcuni esperti ritengono che i sistemi di addestramento nella simulazione saranno sufficienti per costruire robot in grado di completare compiti complessi, come l’assemblaggio di componenti elettronici. Altri sottolineano l’importanza di raccogliere dati del mondo reale, che possono fornire una base di riferimento più forte.

 
Una sfida di vecchia data nelle simulazioni che coinvolgono dati reali è che ogni scena deve rispondere ai movimenti di un robot, anche se quelli che potrebbero non essere stati registrati dal sensore originale. Qualunque angolo o punto di vista non venga catturato da una foto o da un video, deve essere renderizzato o simulato utilizzando modelli predittivi, motivo per cui la simulazione si è storicamente basata su grafica generata al computer e rendering basato sulla fisica che rappresentano in modo un po’ rozzo il mondo.

Ma Julian Togelius, ricercatore di giochi e intelligenza artificiale e professore associato presso la New York University, osserva che i robot pongono sfide che non esistono entro i confini della simulazione. Le batterie si scaricano, gli pneumatici si comportano diversamente a caldo e i sensori devono essere ricalibrati regolarmente. Inoltre, i robot si rompono e tendono ad essere lenti e costano un bel centesimo. The Shadow Dexterous Hand, la macchina che OpenAI ha utilizzato nei suoi esperimenti sul cubo di Rubik, ha un prezzo iniziale di migliaia. E OpenAI ha dovuto migliorare la robustezza della mano riducendo il suo stress tendineo.

“La robotica è un’impresa ammirevole e rispetto molto coloro che cercano di domare le bestie meccaniche”, ha scritto Togelius in un tweet. “Ma non sono un modo ragionevole per fare l’apprendimento per rinforzo, o qualsiasi altro tipo di apprendimento affamato di episodi. A mio modesto parere, il futuro appartiene alle simulazioni”.

Robot di addestramento in simulazione
Gideon Kowadlo, cofondatore di Cerenaut, un gruppo di ricerca indipendente che sviluppa l’intelligenza artificiale per migliorare il processo decisionale, sostiene che non importa quanti dati siano disponibili nel mondo reale, ci sono più dati nella simulazione, dati che sono più facili da controllare, in definitiva. I simulatori possono sintetizzare diversi ambienti e scenari per testare algoritmi in condizioni rare. Inoltre, possono randomizzare le variabili per creare diversi set di addestramento con oggetti e proprietà dell’ambiente variabili.

In effetti, Ted Xiao, uno scienziato della divisione robotica di Google, afferma che l’abbandono di OpenAI dal lavoro con le macchine fisiche non deve segnare la fine della ricerca del laboratorio in questa direzione. Applicando tecniche che includono l’apprendimento per rinforzo a compiti come la comprensione del linguaggio e del codice, OpenAI potrebbe essere in grado di sviluppare sistemi più capaci che possono poi essere applicati di nuovo alla robotica. Ad esempio, molti laboratori di robotica utilizzano esseri umani che tengono i controller per generare dati per addestrare i robot. Ma un sistema di intelligenza artificiale generale che comprende i controller (cioè i videogiochi) e i feed video della robotica con le telecamere potrebbe imparare a teleoperare rapidamente.

Studi recenti suggeriscono come potrebbe funzionare un approccio alla robotica basato sulla simulazione. Nel 2020, Nvidia e Stanford hanno sviluppato una tecnica che scompone le attività di visione e controllo in modelli di apprendimento automatico che possono essere addestrati separatamente. Microsoft ha creato un sistema di navigazione per droni AI in grado di ragionare sulle azioni corrette da intraprendere dalle immagini della telecamera. Lo scienziato di DeepMind ha addestrato un  sistema di impilamento dei cubi per imparare dall’osservazione in un ambiente simulato. E un team di Google ha dettagliato un framework che prende una clip di motion capture di un animale e utilizza l’apprendimento per rinforzo per addestrare una politica di controllo, impiegando una tecnica di adattamento per randomizzare le dinamiche nella simulazione, ad esempio, variando massa e attrito.

In un post sul blog del 2017, i ricercatori di OpenAI hanno scritto di ritenere che i robot generici possano essere costruiti addestrandosi interamente in simulazione, seguita da una piccola quantità di autocalibrazione nel mondo reale. Sembrerebbe sempre più così.

Di ihal