Home / Intelligenza artificiale pericolo / Rohit Prasad, capo scienziato della divisione Alexa di Amazon l’intelligenza artificiale deve diventare affidabile

Rohit Prasad, capo scienziato della divisione Alexa di Amazon l’intelligenza artificiale deve diventare affidabile

 Soprattutto nell’ultimo mezzo secolo, gli esseri umani hanno dovuto adattarsi a profondi cambiamenti tecnologici come Internet, smartphone e personal computer. Nella maggior parte dei casi, l’adattamento alla tecnologia ha avuto senso: viviamo in un mondo molto più globalizzato rispetto a 50 anni fa. Ma c’è una differenza quando si tratta di intelligenza artificiale e tecnologie di apprendimento automatico. Poiché possono conoscere le persone e conformarsi alle loro esigenze, l’onere è sull’intelligenza artificiale che si adatta agli utenti piuttosto che il contrario, almeno in teoria.

Rohit Prasad, capo scienziato della divisione Alexa di Amazon, ritiene che il settore sia a un punto di svolta. Andando avanti, deve garantire che l’intelligenza artificiale impari sugli utenti nello stesso modo in cui gli utenti apprendono in modo che venga mantenuto un livello di fiducia, ha detto a VentureBeat in una recente intervista telefonica.

 
Uno dei modi in cui il team Alexa di Amazon spera di conferire all’intelligenza artificiale maggiore fiducia e personalizzazione è incorporare la consapevolezza contestuale, come le preferenze individuali degli utenti Alexa in una famiglia o in un’azienda. A partire dalla fine dell’anno, gli utenti saranno in grado di “insegnare” ad Alexa cose come le loro preferenze dietetiche, in modo che Alexa suggerisca solo ristoranti e ricette vegetariane, ad esempio, applicando queste informazioni alle interazioni future.

“Alexa fisserà le aspettative su dove verranno utilizzate queste informazioni sulle preferenze e sarà molto trasparente su ciò che apprende e riutilizza, contribuendo a creare una fiducia più stretta con il cliente”, ha affermato Prasad. “Questi sono i vantaggi di questo.”

Tossicità e privacy
Promuovere la fiducia non è sempre stato il punto forte del team di Alexa. Nel 2019, Amazon ha lanciato Alexa Answers , un servizio che consente a qualsiasi cliente Amazon di inviare risposte a domande senza risposta. Amazon ha assicurato che gli invii sarebbero stati controllati attraverso una combinazione di revisione automatica e manuale, ma le analisi di VentureBeat hanno rivelato che a milioni di utenti di Alexa sono state fornite domande e risposte false, fuorvianti e offensive. Nell’aprile 2019, Bloomberg ha rivelato che Amazon impiega lavoratori a contratto per annotare migliaia di ore di audio a volte attivate accidentalmenteDispositivi Alexa, spingendo l’azienda a implementare strumenti rivolti agli utenti che eliminano rapidamente i dati archiviati nel cloud. E i ricercatori hanno affermato che Amazon è in contrasto con le proprie regole di sviluppo relative alla privacy della posizione sui dispositivi Alexa.

In risposta alle domande su Alexa Answers, Prasad ha affermato che Amazon ha “molto lavoro [da fare]” sui guardrail e classifica le risposte alle domande mentre filtra le informazioni che potrebbero essere insensibili per un utente. “Sappiamo che [i dispositivi Alexa] si trovano spesso in un ambiente domestico o in un ambiente comune, dove puoi avere diverse fasce d’età di persone con etnie diverse, e dobbiamo essere rispettosi di ciò”, ha affermato.

Nonostante i passi falsi, Alexa ha visto una maggiore adozione nell’azienda nell’ultimo anno, in particolare nei centri di accoglienza e assistenza agli anziani, afferma Prasad. Afferma che uno dei motivi è la capacità di Alexa di indirizzare internamente le richieste all’app giusta, una capacità abilitata dall’apprendimento automatico.

L’azienda ha registrato un aumento nell’adozione della tecnologia vocale durante la pandemia. In un recente sondaggio su 500 responsabili delle decisioni aziendali e IT negli Stati Uniti, Francia, Germania e Regno Unito, il 28% degli intervistati ha affermato di utilizzare tecnologie vocali e l’84% prevede di utilizzarle nel prossimo anno.

“[La capacità di Alexa] di decidere la migliore esperienza [viene] estesa all’azienda, e direi che è un grande elemento di differenziazione, perché puoi avere molti modi diversi di costruire un’esperienza da molte aziende diverse e singoli sviluppatori”, ha detto Prasad . “Alexa deve fare richieste senza soluzione di continuità, che è un problema molto importante che stiamo risolvendo.”

Mitigare i pregiudizi
Un altro problema importante, anche se intrattabile, che Prasad intende affrontare è il design inclusivo. Sebbene i modelli del linguaggio naturale siano gli elementi costitutivi di servizi tra cui Alexa, prove crescenti mostrano che questi modelli rischiano di  rafforzare  gli  stereotipi indesiderati . La disintossicazione è stata proposta come soluzione per questo problema, ma i coautori di ricerche più recenti suggeriscono che anche questa tecnica  può  amplificare  piuttosto che mitigare i pregiudizi.

La crescente attenzione sui pregiudizi linguistici arriva quando alcuni all’interno della comunità dell’IA richiedono una maggiore considerazione degli effetti delle gerarchie sociali come il razzismo. In un  documento  pubblicato lo scorso giugno, i ricercatori Microsoft hanno sostenuto un esame e un’esplorazione più approfonditi delle relazioni tra linguaggio, potere e pregiudizio nel loro lavoro. Il documento ha anche concluso che il campo di ricerca generalmente manca di descrizioni chiare del pregiudizio e non riesce a spiegare come, perché e per chi il pregiudizio specifico è dannoso.

Dal punto di vista dell’accessibilità, Prasad punta al supporto di Alexa per i messaggi di testo, che consente agli utenti di digitare messaggi anziché parlare con Alexa. Oltre a ciò, afferma che il team di Alexa sta studiando “molti” modi diversi in cui Alexa potrebbe comprendere meglio i diversi tipi di schemi vocali.

“[I problemi di correttezza] diventano molto individualizzati. Ad esempio, se hai una voce dolce, indipendentemente dal tuo sesso o fascia di età, potresti avere difficoltà a far svegliare Alexa per te”, ha detto Prasad. “È qui che può aiutare, ad esempio, una soglia più adattiva”.

Prasad afferma anche che il team ha lavorato per rimuovere i pregiudizi nei grafici della conoscenza di Alexa, o nei database che forniscono ad Alexa fatti su persone, luoghi e cose. Questi grafici della conoscenza, che vengono creati automaticamente, potrebbero rafforzare i pregiudizi nei dati che contengono come “le infermiere sono donne” e “i lottatori sono uomini”.

“E’ il primo lavoro, ma abbiamo lavorato duramente per ridurre questi pregiudizi”, ha detto Prasad.

Prasad ritiene che affrontare queste sfide alla fine porterà al “Santo Graal” nell’intelligenza artificiale: un sistema che comprende come gestire tutte le richieste in modo appropriato senza modellazione manuale o supervisione umana. Un tale sistema sarebbe più robusto rispetto alla variabilità, dice, e consentirebbe agli utenti di insegnargli a eseguire nuove abilità senza la necessità di ardua ingegneria.

“[Con Alexa,] stiamo adottando un approccio molto pragmatico all’intelligenza generalizzata”, ha detto. “La sfida più grande per me come ricercatore di intelligenza artificiale è creare sistemi che funzionino bene ma che possano anche essere democratizzati in modo tale che chiunque possa creare una grande esperienza per le proprie applicazioni”.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi