Home / Robot / I ricercatori creano un robot che mostra empatia di base verso un altro robot

I ricercatori creano un robot che mostra empatia di base verso un altro robot

Uno studio recente è riuscito a dotare un robot di una forma rudimentale di empatia , consentendo al robot di prevedere gli obiettivi e le azioni del suo partner robotico.

Un team di ingegneri della School of Engineering and Applied Science dell’Università della Colombia ha progettato un robot in grado di prevedere con successo le azioni e gli obiettivi di un robot partner sulla base di pochi frame di un video. Gli ingegneri sostengono che il robot e la sua intelligenza artificiale mostrano una forma primitiva di empatia e che la ricerca futura in questo settore potrebbe aiutare a fornire ai robot una “teoria della mente”.

Il recente studio è stato condotto dal professor Hod Lipson del Creative Machines Lab della Columbia Engineering. La ricerca condotta da Lipson e dal suo team è solo una parte di un più ampio sforzo accademico per consentire ai robot di comprendere e prevedere gli obiettivi di altri robot e potenzialmente umani. Questa previsione deve essere fatta interamente attraverso l’analisi dei dati raccolti dai sensori, dati visivi primari.

Robot osservando il robot
Il team di ricercatori ha costruito un robot per operare all’interno di un box di circa 6 piedi quadrati di superficie. Il robot era programmato per cercare cerchi verdi e spostarsi verso quei cerchi verdi, ma non tutti i cerchi verdi all’interno del box erano visibili al robot. Alcuni dei cerchi verdi bersaglio erano facilmente visibili dalla posizione di partenza del robot, ma altri cerchi erano nascosti dietro una grande scatola di cartone.

Un secondo robot è stato programmato per osservare il primo robot, guardando il robot nel recinto per circa due ore. Dopo aver osservato il suo robot partner, il bot osservatore è stato in grado di prevedere sia l’obiettivo che i percorsi del suo partner per la maggior parte del tempo. Il bot osservatore è stato in grado di prevedere correttamente il percorso intrapreso dall’altro bot con una precisione del 98%, anche se il bot osservatore non era a conoscenza dell’incapacità del bot esploratore di vedere dietro la scatola.

Uno degli autori principali dello studio, Boyuan Chen, ha spiegato tramite ScienceDaily che i risultati dello studio dimostrano la capacità dei robot di interpretare il mondo dalla prospettiva di un altro robot.

“La capacità dell’osservatore di mettersi nei panni del suo partner, per così dire, e capire, senza essere guidato, se il suo partner potesse o meno vedere il cerchio verde dal suo punto di vista, è forse una forma primitiva di empatia”, ha spiegato Chen.

Il team di ricerca si aspettava che il robot osservatore potesse prevedere le azioni a breve termine del robot esploratore, ma quello che hanno scoperto è stato che il robot osservatore non era solo in grado di prevedere azioni a breve termine, ma piuttosto poteva prevedere con precisione più a lungo termine azioni basate su pochi fotogrammi di video.

“Teoria della mente”
Evidentemente, i comportamenti esibiti dal robot esploratore sono più semplici di molte azioni svolte dagli esseri umani, e quindi prevedere gli obiettivi e i comportamenti degli umani è piuttosto lontano. Tuttavia, i ricercatori sostengono che ciò che è comune tra la previsione delle azioni di un essere umano e le azioni di un robot sta impiegando una “Teoria della mente”. La ricerca psicologica suggerisce che gli esseri umani iniziano a sviluppare una teoria della mente intorno all’età di tre anni. Una teoria della mente è necessaria per la cooperazione, l’empatia e l’inganno. Il team di ricerca spera che ulteriori ricerche sulla tecnologia che guida le interazioni tra i loro robot aiuteranno gli scienziati a sviluppare robot ancora più sofisticati.

Come accennato, mentre l’empatia viene generalmente definita un tratto positivo che consente la cooperazione, è necessaria anche per azioni più negative come l’inganno. Per ingannare qualcuno con successo, devi capire i suoi desideri e le sue intenzioni. Questo apre alcune domande etiche, poiché una volta che i robot possono potenzialmente ingannare gli esseri umani, cosa impedisce loro di essere impiegati da cattivi attori per manipolare ed estorcere le persone?

Mentre il robot osservatore è stato addestrato esclusivamente sui dati di immagine, Lipson ritiene che in linea di principio un sistema predittivo simile potrebbe essere progettato basato sul linguaggio umano, osservando che le persone spesso immaginano le cose con gli occhi della mente, pensando visivamente.

Gli sforzi del team di ricerca colombiano fanno parte di una più ampia spinta a dotare l’IA di una teoria della mente e dell’empatia. Euan Matthews, direttore dell’intelligenza artificiale e dell’innovazione presso Contact Engine, ha recentemente affermato che, affinché le IA diventino più empatiche, dovranno essere in grado di considerare più intenzioni, non solo una. Gli esseri umani hanno spesso più intenzioni, a volte desideri e sentimenti contrastanti su un argomento e le IA dovranno diventare più flessibili quando si tratta di intenzionalità umana.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi