Una nuova ricerca mostra come l’IA può agire da mediatore
Una nuova ricerca della Cornell University mostra come l’intelligenza artificiale (AI) possa svolgere un ruolo nella mediazione delle conversazioni. Ciò avviene durante un periodo di distanziamento sociale e conversazioni remote a causa di una pandemia.
Secondo il nuovo studio, gli umani si fidavano dei sistemi artificiali intelligenti più delle persone reali con cui stavano parlando quando avevano conversazioni difficili. I sistemi artificiali intelligenti erano suggerimenti di risposta “intelligenti” nei testi.
Il nuovo studio si intitola “AI come Moral Crumple Zone: The Effects of Mediaiated AI Communication on Attribution and Trust.” È stato pubblicato online sulla rivista Computers in Human Behaviour.
Jess Hohenstein è una dottoranda nel campo della scienza dell’informazione. È il primo autore del documento.
“Scopriamo che quando le cose vanno male, le persone si assumono la responsabilità che altrimenti sarebbero state designate per il loro partner umano e designano parte di ciò nel sistema di intelligenza artificiale”, ha detto Hohenstein. “Questo introduce un potenziale per prendere l’IA e usarla come mediatore nelle nostre conversazioni.”
Rileva quando le cose vanno male
Durante una conversazione, l’algoritmo può analizzare il linguaggio per rilevare il momento in cui le cose vanno male. Può quindi suggerire alcune strategie di risoluzione dei conflitti, secondo Hohenstein.
L’obiettivo principale dello studio era di esaminare i diversi modi sottili e significativi in cui i sistemi di intelligenza artificiale, come le risposte intelligenti, possono alterare il modo in cui gli umani interagiscono. Secondo i ricercatori, qualcosa di piccolo come la selezione di una risposta non completamente accurata può cambiare drasticamente i diversi aspetti di una conversazione. Quella lingua viene spesso selezionata per risparmiare tempo nella digitazione e può avere un effetto diretto sulle relazioni.
Malte Jung è coautore dello studio e assistente professore di informatica. È anche direttore del laboratorio Robots in Groups, che studia come i robot cambiano le dinamiche di gruppo.
“La comunicazione è così fondamentale per il modo in cui formiamo le percezioni reciproche, come formiamo e manteniamo le relazioni o come siamo in grado di realizzare qualsiasi cosa lavorando insieme”, ha detto Jung.
“Questo studio rientra nell’agenda più ampia della comprensione di come questi nuovi sistemi di intelligenza artificiale interferiscono con la nostra capacità di interagire”, ha continuato Jung. “Spesso pensiamo a come la progettazione dei sistemi influisce sul modo in cui interagiamo con essi, ma un numero inferiore di studi si concentra sulla domanda su come le tecnologie che sviluppiamo influenzano il modo in cui le persone interagiscono tra loro.”
Migliore comprensione dell’interazione umana
Lo studio può aiutare a comprendere i modi in cui le persone percepiscono e interagiscono con i computer. Può anche aiutare a migliorare la comunicazione umana, attraverso l’uso di una guida sottile e promemoria AI.
Hohenstein e Jung volevano scoprire se il sistema di intelligenza artificiale poteva assorbire il “crash” di una conversazione.
“C’è un meccanismo fisico nella parte anteriore dell’auto progettato per assorbire la forza dell’impatto e assumersi la responsabilità di ridurre al minimo gli effetti dell’incidente”, ha detto Hohenstein. “Qui vediamo il sistema di intelligenza artificiale assorbire parte della responsabilità morale.”
La ricerca è stata sostenuta in parte dalla National Science Foundation.
Lo studio si scarica qui https://hohenstein.infosci.cornell.edu/files/AI_crumpleZone.pdf