Amazon sfrutta la sua sfida SocialBot per potenziare l’IA conversazionale
All’inizio di questa settimana, Amazon ha annunciato i vincitori della sua annuale Alexa Prize SocialBot Grand Challenge, che promuove la ricerca su coerenza, consapevolezza del contesto, fluidità di risposta e altre aree fondamentali per il futuro dell’IA conversazionale. I team universitari partecipanti progettano social bot per i dispositivi abilitati Alexa e possono convalidare le loro idee interagendo direttamente con i milioni di clienti Alexa di Amazon.
Ma il concorso non è solo un modo per i partecipanti di sperimentare e guadagnare borse di ricerca. Ogni team di ricerca mantiene la proprietà della proprietà intellettuale nei suoi sistemi e una vittoria potrebbe significare un’opportunità per integrare la propria ricerca nei piani futuri di Amazon. Alcuni progressi abbastanza significativi nell’intelligenza artificiale conversazionale e nei successivi articoli scientifici in genere emergono dall’evento.
I progressi di quest’anno sono stati soprattutto in termini di durata. Tutti e tre i finalisti hanno ottenuto conversazioni di 20 minuti, che erano state raggiunte solo una volta durante le prime tre edizioni della sfida. Inoltre, il tempo medio raggiunto dai social bot nei round finali è stato di 12 minuti e 42 secondi, più del doppio del tempo medio delle finali del 2020. Un team ha anche mostrato reali progressi in termini di qualità della conversazione, ottenendo un punteggio perfetto di 5/5.
“La durata media fornisce un indicatore consolidato di come i progressi scientifici compiuti dai team del Premio Alexa hanno portato a grandi passi avanti nella coerenza e fluidità delle interazioni”, ha detto a VentureBeat Prem Natarajan, vicepresidente della comprensione naturale per Alexa AI. Ha aggiunto che i partecipanti in generale “hanno ampiamente influenzato il campo dell’IA conversazionale attraverso i progressi che hanno raggiunto”, menzionando i progressi nei modelli di generazione della risposta neurale, nelle rappresentazioni della conoscenza del buon senso, nella modellazione/politiche del dialogo e nei sistemi di comprensione del linguaggio naturale migliorati da grandi modelli di trasformatore in scala.
I vincitori
Il primo posto quest’anno è andato al team della Czech Technical University. Il bot Alquist degli studenti ha avuto un punteggio medio di 3,28 e una durata media della conversazione di 14 minuti e 14 secondi, guadagnando loro $ 500.000. La squadra è arrivata in finale in passato, ma questa ha segnato la sua prima vittoria.
Jakub Konrád, che ha guidato il team, ha detto a VentureBeat che l’attuale versione di Alquist sfrutta una combinazione di un approccio generativo flessibile e scenari di dialogo di alta qualità. “Questo approccio consente al bot di fornire una conversazione coinvolgente e di agire coerentemente agli input inaspettati”, ha affermato. “Inoltre, il modello generativo considera i fatti esterni sulle entità discusse per rendere la conversazione più naturale”. Un altro aspetto importante, ha osservato, è che il bot ricorda le informazioni essenziali sull’utente e quindi considera tali informazioni durante la costruzione della conversazione successiva.
“Con l’IA conversazionale che fa grandi passi avanti in ciò che è possibile, stiamo raggiungendo il punto di avere una conversazione naturale di dominio aperto a flusso libero…” ha detto Konrád. “Ciò che troviamo più eccitante è che ciò significa che possiamo continuare a far progredire questa tecnologia e utilizzarla in applicazioni del mondo reale che sono in grado di prendersi cura delle persone e aiutarle con i loro problemi. L’intelligenza artificiale conversazionale ha molti usi, ad esempio, nel benessere, nella salute mentale o nell’istruzione”.
Il team della Stanford University quest’anno ha portato a casa il secondo posto – e ha guadagnato $ 100.000 – per il suo bot Chirpy Cardinal. E il terzo posto è andato al team dell’Università di Buffalo, che ha vinto un premio di $ 50.000 per il suo robot PROTO.
Il futuro dell’IA conversazionale
Per quanto riguarda ciò che dicono i progressi visti in queste sfide sulla progressione dell’IA conversazionale in generale, Natarajan osserva che le tecnologie di deep learning basate su Transformer stanno “chiaramente facendo la differenza nell’affrontare i difficili problemi dell’IA conversazionale”.
“Il lavoro recente nel loro potenziale per supportare la composizionalità indica che non abbiamo ancora sfruttato il loro pieno potenziale”, ha aggiunto. “Nel complesso, siamo lieti di vedere che i team universitari promuovono miglioramenti nelle conversazioni a dominio aperto e multi-turn. Il loro lavoro fornisce un altro motivo di ottimismo”.
Natarajan ritiene che le ultime tecnologie conversazionali che l’azienda sta iniziando a introdurre, così come quelle in fase di sviluppo, porteranno un nuovo livello di generalizzabilità e autonomia ad Alexa e al campo dell’AI sia per le imprese che per i consumatori. “Ciò significa che i sistemi di intelligenza artificiale diventeranno più autoconsapevoli, più autodidatti e consentiranno più self-service da parte sia degli sviluppatori che degli utenti finali”, ha affermato.
Alexa ha fatto molta strada da quando è stata introdotta per la prima volta con Amazon Echo nel 2014. L’azienda ha introdotto nuove funzionalità come Alexa Answers e ha visto una crescente adozione tra le aziende. In un recente sondaggio su 500 responsabili delle decisioni IT e aziendali, il 28% degli intervistati ha affermato di utilizzare tecnologie vocali e l’84% prevede di utilizzarle nel prossimo anno. Ma la tecnologia vocale non è stata priva di problemi. VentureBeat ha recentemente discusso dei problemi persistenti relativi a tossicità, privacy e pregiudizi con Rohit Prasad, capo scienziato della divisione Alexa di Amazon, che ha affermato che il team spera di infondere maggiore fiducia nei suoi sistemi.