L’inganno dei robot è un campo poco studiato con molte domande e poche risposte concrete. In particolare, ricostruire la fiducia nei sistemi robotici dopo che hanno mentito è un problema complesso. Per trovare risposte a questo problema, Kantwon Rogers e Reiden Webber, due studenti ricercatori della Georgia Tech, stanno indagando su come l’inganno intenzionale dei robot influenzi la fiducia e l’efficacia delle scuse nel riparare la fiducia.
Secondo Rogers, quando le persone scoprono che i robot hanno mentito, anche se la menzogna era intesa a loro beneficio, perdono la fiducia nel sistema. I ricercatori stanno cercando di determinare se diversi tipi di scuse sono più efficaci nel ripristinare la fiducia nell’interazione uomo-robot.
Per studiare l’interazione uomo-IA in una situazione ad alto rischio e sensibile al tempo, Rogers e Webber hanno progettato un esperimento di simulazione di guida. Hanno reclutato 341 partecipanti online e 20 partecipanti di persona. La simulazione prevedeva uno scenario di guida assistita dall’intelligenza artificiale in cui l’intelligenza artificiale forniva false informazioni sulla presenza della polizia lungo il percorso verso un ospedale. Dopo la simulazione, l’intelligenza artificiale ha fornito una delle cinque diverse risposte testuali, inclusi vari tipi di scuse e non scuse.
I risultati hanno rivelato che i partecipanti avevano una probabilità 3,5 volte maggiore di non accelerare quando consigliati da un assistente robotico, indicando un atteggiamento eccessivamente fiducioso nei confronti dell’IA. Nessuno dei tipi di scuse ha ripristinato completamente la fiducia, ma le semplici scuse senza ammettere di aver mentito (“mi dispiace”) hanno superato le altre risposte. Tuttavia, questa scoperta è problematica poiché sfrutta l’idea preconcetta che qualsiasi informazione falsa fornita da un robot sia un errore di sistema piuttosto che una menzogna intenzionale.
Secondo Webber, per capire che un robot ha ingannato una persona, dev’essere detto esplicitamente. Quando i partecipanti sono stati informati dell’inganno nelle scuse, la migliore strategia per riparare la fiducia era che il robot spiegasse perché ha mentito.
Questa ricerca ha implicazioni importanti per gli utenti medi di tecnologia, i progettisti di sistemi di intelligenza artificiale e i responsabili politici. È essenziale che le persone capiscano che l’inganno robotico è reale e sempre una possibilità. I progettisti e i tecnologi devono considerare le conseguenze della creazione di sistemi di intelligenza artificiale in grado di ingannare. I responsabili politici dovrebbero prendere l’iniziativa di regolamentare la tecnologia dell’IA in grado di ingannare.
L’obiettivo di Rogers è creare un sistema robotico in grado di imparare quando mentire e quando non mentire quando si lavora con team umani, nonché quando e come chiedere scusa durante ripetute interazioni uomo-IA a lungo termine per migliorare le prestazioni del team.
Rogers sottolinea l’importanza di comprendere e regolare l’inganno di robot e IA, dicendo che il suo obiettivo è essere molto proattivo e informare sulla necessità di regolamentare l’inganno di robot e IA. Tuttavia, questo non è possibile se non si capisce il problema.
In sintesi, questa ricerca offre importanti informazioni per i progettisti di tecnologia e i responsabili politici che creano e regolano la tecnologia dell’IA in grado di ingannare o potenzialmente imparare a farlo da sola. Comprendere e regolare l’inganno dei robot e dell’IA è fondamentale per garantire la sicurezza e la fiducia degli utenti di queste tecnologie.