La ricerca per fondere intelligenza artificiale e robotica
DeepMind e altri ricercatori nel campo della robotica stanno utilizzando una tecnica basata sulla simulazione – sim-to-real – per trovare un modo per aggirare il problema dei dati.
L’intelligenza artificiale ha sicuramente assunto un ruolo importante nel settore dello sviluppo e della ricerca e sta cercando di diventare presente in un numero schiacciante di scenari nella nostra vita quotidiana. Mentre ci imbattiamo ogni giorno nella nostra vita quotidiana con strumenti basati sull’intelligenza artificiale (di’ semplicemente “Hey Siri” o “Alexa” se non sei d’accordo), dobbiamo ancora incontrare tanti robot.
Superando questo, i ricercatori stanno cercando di fondere l’intelligenza artificiale e la robotica per creare un corpo intelligente in grado di prendere decisioni e controllare un corpo fisico. Una delle organizzazioni che tentano di intraprendere questo compito rivoluzionario è DeepMind. In un servizio con IEEE Spectrum , il capo della robotica di DeepMind, Raia Hadsell , discute le conseguenze di un divario di dieci anni tra la visione artificiale e lo sviluppo della robotica e i tentativi dell’organizzazione di colmare il divario.
Il problema del set di dati
La sfida più grande affrontata da queste aziende è raccogliere enormi set di dati per ampliare l’IA a nuove categorie di applicazioni, rispondere a problemi profondi o applicare l’IA per guidare veicoli, svolgere attività domestiche di base, lavorare in vari settori e altro ancora. Una rete neurale è valida solo quanto la qualità e la quantità dei suoi dati di addestramento; gli ultimi successi sono dovuti a enormi set di dati recenti.
Ad esempio, AlphaGo di DeepMind , che è persino riuscito a battere un grande maestro nell’antico gioco da tavolo di Go, è stato addestrato su un set di dati di centinaia di migliaia di giochi umani e sui milioni di giochi che ha giocato contro se stesso in simulazione.
Ma il problema nella collaborazione AI-Robotics è l’indisponibilità di set di dati così grandi per addestrare un robot. Questo perché gli errori non possono essere cancellati facilmente in un robot come in una rete neurale. Ad esempio, migliaia di giochi per Go potrebbero essere simulati in pochi minuti eseguendoli parallelamente su più CPU, ma il processo non può essere ripetuto più di poche volte al minuto in un robot quando la macchina impiega 3 secondi per scegliere su una tazza. Allo stesso modo, la rete neurale può sbagliare un milione di immagini nelle fasi iniziali. Tuttavia, se il robot cammina male e cade anche poche centinaia di volte, la macchina non sarà in grado di continuare.
Mentre i dati del mondo reale sono “insormontabili”, DeepMind sta lavorando per raccogliere i dati per i robot. DeepMind e altri ricercatori nel campo della robotica stanno utilizzando una tecnica basata sulla simulazione, da sim a reale, per trovare un modo per aggirare il problema dei dati. OpenAI è riuscito ad addestrare con successo una mano robotica nella risoluzione di un cubo di Rubik. Detto questo, la tecnica di simulazione presenta i suoi maggiori limiti a causa del fatto che le simulazioni sono troppo perfette e troppo lontane dal complesso mondo reale.
Il problema catastrofico dell’oblio
Un altro problema profondo è l’ oblio catastrofico , in cui l’IA tende a dimenticare i suoi vecchi compiti nell’apprenderne di nuovi. Ciò deriva dall’importante metodo di addestramento e classificazione per le reti neurali, in cui diversi nodi ricevono immagini di input e rilevano l’immagine in base ai suoi dati di addestramento. Nel processo di formazione, qualsiasi schema di apprendimento deve distinguere tra risposte corrette e errate e migliorare di conseguenza. Pertanto, nel caso in cui inizialmente si addestra la rete neurale per distinguere tra cani e gatti e ulteriormente tra animali e veicoli, l’IA non ricorderà più cani contro gatti; li ricorderà come animali. Pertanto, le reti di programmazione neurale con un’intelligenza flessibile simile a quella umana sono troppo complesse, impedendo loro di adattarsi al mondo reale.
Tecniche di soluzione di DeepMind
Consolidamento elastico del peso
Isolare ogni abilità addestrando la rete neurale su un’attività, salvando i pesi della sua rete nella sua memoria dati e addestrandola su una nuova attività, salvando quei pesi altrove: è una soluzione per aggirare il problema.
Un altro approccio creato a DeepMind da Hadsell è il ” consolidamento elastico del peso “. Secondo l’approccio, al termine dell’apprendimento di un compito, una rete neurale valuterà le importanti connessioni simili a sinapsi tra i nodi simili a neuroni per quel compito. Quindi, congelerà parzialmente i loro pesi, che saranno protetti dal cambiamento; gli altri nodi impareranno come al solito.
“Ora, quando la tua IA che gioca a Pong impara a giocare a Pac-Man , quei neuroni più rilevanti per Pong rimarranno per lo più al loro posto, e continuerà a funzionare abbastanza bene su Pong . Potrebbe non continuare a vincere con un punteggio di 20 a zero, ma forse di 18 a 2″, ha spiegato Hadsell a IEEE Spectrum .
Avanza e comprimi
Il caso qui è che i neuroni diventano sempre più anelastici con ogni nuovo compito appreso, rendendolo più fisso col passare del tempo, proprio come con un essere umano. Ma anche DeepMind sta lavorando su questo problema e crede che sia risolvibile attraverso il ” progredire e comprimere”“tecnica. La tecnica combina tre idee relativamente recenti; reti neurali progressive, distillazione della conoscenza e consolidamento del peso elastico. Qui, invece di una singola rete neurale che si allena su un compito seguito direttamente da un altro, la rete neurale modifica l’approccio. Funziona su un’attività e, dopo aver terminato, congela le sue connessioni, sposta la rete neurale nella memoria e crea una nuova rete neurale per l’altra attività. Poiché l’addestramento del compito passato è congelato, non può essere dimenticato e l’intelligenza artificiale può anche portare le abilità apprese dalle vecchie connessioni alla nuova formazione.
Distillazione della conoscenza
Inoltre, per superare il limite di una mancanza di trasferimento all’indietro in cui il modello non può trasferire competenze dal nuovo al vecchio, Hadsell ha applicato la tecnica di ” distillazione della conoscenza ” di Geoffrey Hinton, scienziato informatico britannico-canadese . La tecnica prevede di prendere diverse reti neurali addestrate su un compito e di comprimerle in una singola per fare la media delle loro previsioni. Questo conclude l’allenamento da diversi neuroni a due:
La colonna attiva – quella che impara ogni nuovo gioco. Questo è addestrato su nuovi compiti nella fase di avanzamento. Le sue connessioni vengono aggiunte alla base di conoscenza.
La base di conoscenza, quella che contiene tutto l’apprendimento dei giochi precedenti, mediata. La base distilla le connessioni in fase compressa.
Riepilogo delle tecniche
Per superare il problema dell’oblio catastrofico, Hadsell ricorre nuovamente al “consolidamento elastico del peso”. Il sistema di Hadsell evita l’eventuale congelamento delle connessioni nel consolidamento del peso elastico avendo due reti. Questo metodo consente e incoraggia anche un’ampia base di conoscenze poiché alcuni livelli congelati non sono dannosi. Infine, la tecnica consente il modello del progresso e della compressione grazie alla possibilità di una colonna attiva più piccola senza il problema dell’oblio catastrofico.
La fusione di AI + Robotica è nelle speranze a lungo termine per l’intelligenza generale. Per DeepMind e Hadsell, il piano prevede che algoritmi e robot apprendano e affrontino diversi problemi in vari ambiti.