I ricercatori sviluppano un quadro per dare ai robot abilità sociali
I ricercatori del Massachusetts Institute of Technology (MIT) hanno sviluppato un quadro di controllo per fornire abilità sociali ai robot. Il framework consente alle macchine di capire cosa significa aiutarsi o ostacolarsi a vicenda, nonché di imparare a eseguire comportamenti sociali da sole.
Un robot osserva il suo compagno in un ambiente simulato prima di indovinare quale compito vuole svolgere. Quindi aiuta o ostacola l’altro robot in base ai propri obiettivi.
I ricercatori hanno anche dimostrato che il loro modello crea interazioni sociali realistiche e prevedibili. Quando agli spettatori umani sono stati mostrati i video dei robot simulati che interagiscono tra loro, sono stati d’accordo con il modello su quale comportamento sociale si stava verificando.
Consentendo ai robot di mostrare abilità sociali, possiamo ottenere interazioni uomo-robot più positive. Il nuovo modello potrebbe anche consentire agli scienziati di misurare quantitativamente le interazioni sociali.
Boris Katz è il principale ricercatore e capo del gruppo InfoLab nel Computer Science and Artificial Intelligence Laboratory (CSAIL), nonché membro del Center for Brains, Minds and Machines (CBMM).
“I robot vivranno nel nostro mondo abbastanza presto e hanno davvero bisogno di imparare a comunicare con noi in termini umani. Devono capire quando è il momento per loro di aiutare e quando è il momento per loro di vedere cosa possono fare per evitare che accada qualcosa. Questo è un lavoro molto precoce e stiamo a malapena grattando la superficie, ma sento che questo è il primo tentativo molto serio di capire cosa significhi per gli esseri umani e le macchine interagire socialmente”, afferma Katz.
La ricerca includeva anche l’autore principale Ravi Tejwani, un assistente di ricerca presso CSAIL; co-autore principale Yen-Ling Kuo, studente di dottorato CSAIL; Tianmin Shu, postdoc presso il Dipartimento di Scienze del cervello e delle scienze cognitive; e l’autore senior Andrei Barbu, ricercatore presso CSAIL.
Studiare le interazioni sociali
I ricercatori hanno creato un ambiente simulato in cui i robot perseguono obiettivi fisici e sociali mentre navigano intorno a una griglia bidimensionale, che ha permesso al team di studiare l’interazione sociale.
Ai robot sono stati dati obiettivi fisici e sociali. Un obiettivo fisico si riferisce all’ambiente, mentre un obiettivo sociale potrebbe essere qualcosa come un robot che indovina cosa sta cercando di fare un altro prima di basare le proprie azioni su quella previsione.
Il modello viene utilizzato per specificare quali sono gli obiettivi fisici di un robot, quali sono i suoi obiettivi sociali e quanta enfasi dovrebbe essere posta su uno rispetto all’altro. Se il robot completa azioni che lo avvicinano al suo obiettivo, viene ricompensato. Se il robot cerca di aiutare il suo compagno, aggiusta la sua ricompensa in modo che corrisponda a quella dell’altro. Se il robot sta cercando di ostacolare l’altro, aggiusta la sua ricompensa di conseguenza. Un algoritmo decide quali azioni deve intraprendere un robot e utilizza il sistema di ricompensa per guidarlo nel raggiungimento degli obiettivi fisici e sociali.
“Abbiamo aperto un nuovo quadro matematico per il modo in cui modelli l’interazione sociale tra due agenti. Se sei un robot e vuoi andare alla posizione X, e io sono un altro robot e vedo che stai cercando di andare alla posizione X, posso collaborare aiutandoti a raggiungere la posizione X più velocemente. Ciò potrebbe significare avvicinare X a te, trovare un altro X migliore o intraprendere qualsiasi azione tu dovessi intraprendere su X. La nostra formulazione consente al piano di scoprire il “come”; noi specifichiamo il ‘cosa’ in termini di ciò che le interazioni sociali significano matematicamente”, afferma Tejwani.
I ricercatori utilizzano il quadro matematico per definire tre tipi di robot. Un robot di livello 0 ha solo obiettivi fisici, mentre un robot di livello 1 ha obiettivi sia fisici che sociali, ma presume che tutti gli altri abbiano solo obiettivi fisici. Ciò significa che i robot di livello 1 intraprendono azioni in base agli obiettivi fisici degli altri, come aiutare o ostacolare. Un robot di livello 2 presuppone che gli altri abbiano obiettivi sociali e fisici e che questi robot possano intraprendere azioni più sofisticate.
Testare il modello
I ricercatori hanno scoperto che il loro modello concordava con ciò che gli umani pensavano delle interazioni sociali che si verificavano in ogni fotogramma.
“Abbiamo questo interesse a lungo termine, sia per costruire modelli computazionali per robot, ma anche per approfondire gli aspetti umani di questo. Vogliamo scoprire quali funzionalità di questi video utilizzano gli umani per comprendere le interazioni sociali. Possiamo fare un test oggettivo per la tua capacità di riconoscere le interazioni sociali? Forse c’è un modo per insegnare alle persone a riconoscere queste interazioni sociali e migliorare le proprie capacità. Siamo molto lontani da questo, ma anche solo essere in grado di misurare efficacemente le interazioni sociali è un grande passo avanti”, afferma Barbu.
Il team sta ora lavorando allo sviluppo di un sistema con agenti 3D in un ambiente che consente più tipi di interazioni. Vogliono anche modificare il modello per includere ambienti in cui le azioni possono fallire e intendono incorporare nel modello un pianificatore di robot basato su rete neurale. Infine, cercheranno di eseguire un esperimento per raccogliere dati sulle funzionalità utilizzate dagli umani per determinare se due robot sono impegnati in un’interazione sociale.