I robot di oggi si affidano principalmente alla visione e al tatto per operare nei loro ambienti, ma questo potrebbe cambiare con una nuova ricerca proveniente dalla Carnegie Mellon University (CMU). Un gruppo di ricercatori ha scoperto che la percezione del robot potrebbe migliorare attraverso l’udito.

La ricerca è stata il primo studio su larga scala delle interazioni tra suono e azione robotica, secondo i ricercatori del Robotics Institute della CMU. Il gruppo ha scoperto che il suono può svolgere un ruolo nell’aiutare i robot a distinguere tra gli oggetti. Attraverso l’uso dell’udito, i robot potrebbero anche determinare quale tipo di azione ha causato un suono e i suoni potrebbero aiutare a prevedere le proprietà fisiche di nuovi oggetti.

Lerrel Pinto è Ph.D in robotica alla CMU e questo autunno farà parte della facoltà della New York University.

“Un sacco di lavoro preliminare in altri campi indicava che il suono poteva essere utile, ma non era chiaro quanto sarebbe stato utile nella robotica”, ha detto Pinto.

Pinto e il gruppo di ricercatori hanno scoperto che il tasso di prestazioni era piuttosto alto, in particolare un tasso di precisione del 76% per i robot che utilizzano il suono per classificare con successo gli oggetti.

Poiché i risultati si adattano a ciò che il gruppo stava cercando, ora esploreranno altre opzioni, come dotare i robot di canne strumentate. Ciò consentirà loro di identificare gli oggetti toccandoli.

I risultati del gruppo sono stati presentati a luglio alla conferenza virtuale Robotics Science and Systems. Il team comprendeva anche Abhinav Gupta, professore associato di robotica, e Dhiraj Gandhi, ricercatore presso il Pittsburgh Lab di Facebook Artificial Intelligence Research.

Lo studio e il set di dati
Lo studio è stato condotto con i ricercatori creando un ampio set di dati e registrando simultaneamente video e audio di 60 oggetti comuni. Alcuni di questi oggetti erano blocchi giocattolo, utensili manuali, mele, scarpe e palline da tennis. Le registrazioni hanno avuto luogo mentre gli oggetti rotolavano e si schiantavano attorno a un vassoio.

Il set di dati è stato quindi rilasciato dopo aver catalogato circa $ 15.000 interazioni.

Tilt-Bot
Le interazioni sono state catturate da quello che il team chiama Tilt-Bot, che è un vassoio quadrato collegato a un braccio robotico Sawyer. Il Sawyer è stato utilizzato anche per spingere oggetti su una superficie, raccogliendo altri tipi di dati.

Lo studio su come il suono può influenzare i robot intelligenti è in circolazione da un po ‘, ma la novità è l’enorme set di dati.

Una delle nuove scoperte era che un robot poteva usare la sua esperienza e ciò che aveva appreso sul suono di un certo insieme di oggetti per prevedere le proprietà fisiche di un altro insieme di oggetti invisibili.

“Penso che ciò che è stato davvero eccitante è stato che quando ha fallito, avrebbe fallito su cose su cui ti aspetti che fallisca”, ha detto Pinto. Ad esempio, un robot non potrebbe usare il suono per distinguere tra un blocco rosso o un blocco verde. “Ma se fosse un oggetto diverso, come un blocco contro una tazza, potrebbe capirlo.”

La ricerca è stata sostenuta dalla Defense Advanced Research Projects Agency e dall’Office of Naval Research.

Di ihal