Home / Archive by category "chatbot"

chatbot

IBM Watson Assistant pronto per i call center

IBM lancia le funzionalità Watson Assistant per l'automazione dei call center  IBM ha annunciato oggi il lancio di nuove funzionalità in Watson Assistant, la sua piattaforma che consente ai clienti di creare interfacce di conversazione in app, dispositivi e canali. Grazie alla collaborazione con IntelePeer, ora è più facile configurare e testare gli agenti vocali di Watson Assistant. E una nuova app agente consente un passaggio più semplice a un agente dal vivo. Gli assistenti virtuali stanno guadagnando popolarità in parte grazie ai miglioramenti tecnici nell'elaborazione del linguaggio naturale. Secondo l'indice di adozione dell'IA globale 2021 di IBM, il 52% dei professionisti IT riferisce che la propria azienda sta utilizzando o valutando soluzioni di elaborazione del linguaggio naturale per rafforzare le esperienze dei clienti. In particolare, l' intelligenza artificiale e l'automazione stanno svolgendo un ruolo crescente nei call center, consentendo alle aziende di stare al passo con le crescenti richieste dei clienti.  Con l'integrazione del prodotto IntelePeer con Watson Assistant, i clienti IBM con un sistema telefonico di contact center esistente possono connettersi direttamente alla piattaforma Watson Assistant. Oltre a questo, Watson Assistant può ora collegarsi con la maggior parte delle principali piattaforme di contact center, tra cui Talkdesk e Aircall .  Nel frattempo, la capacità di ricerca di Watson Assistant, lanciata in versione beta lo scorso dicembre, è ora generalmente disponibile. Include il recupero di risposte brevi basato su un sistema di risposta alle domande di IBM Research, che consente a un agente virtuale di restituire una risposta in poche parole da frasi o passaggi più lunghi. Oltre a fornire un contesto sulla provenienza di ogni risposta, la capacità di ricerca può aiutare gli amministratori ad aggiornare gli agenti virtuali con fonti di informazioni più ampie, riducendo al minimo la necessità di aggiornamenti manuali.  Per quanto...
Continua a Leggere

AI Assistants di Roberto Pieraccini edito da MIT Press

"Assistenti AI": una semplice e breve panoramica degli assistenti virtuali     “ AI Assistants ” (MIT Press), di Roberto Pieraccini, è un libro sopra la media, se non eccellente, per introdurre le persone al background semi-tecnico intorno alla presenza sempre più onnipresente di assistenti virtuali basati sull'intelligenza artificiale (AI). È una lettura veloce, più di una novella in termini di finzione. Il libro è un tomo 7"x5" che fornisce un buon background per le persone IT di livello medio e alto che cercano di incorporare la tecnica e per gli appassionati di tecnologia. Ci sono alcuni frammenti di codice nel libro, ma chi è interessato solo ai concetti può capire il libro senza i frammenti. Il libro è più uno sfondo dell'evoluzione degli assistenti virtuali, quindi è carino da una prospettiva storica. Come parte di questo background, il secondo capitolo è una revisione dell'IA. All'inizio, ho pensato che l'autore avrebbe equiparato l'apprendimento automatico (ML) alle reti neurali, un errore comune, poiché ha usato alcuni termini di rete neurale per descrivere ML. Tuttavia, man mano che il capitolo procedeva, ha fatto un ottimo lavoro nel posizionare quei termini nel contesto più ampio. Essendo una persona di intelligenza artificiale più generale, mi è piaciuto molto questo capitolo. Il capitolo successivo riguardava la comprensione di come i suoni diventano linguaggio. C'era un bel po' nel mezzo su come creiamo suoni con il tratto vocale, come il tratto influenza quei suoni e come quella conoscenza viene utilizzata per suddividere i suoni in componenti digitali. Non è affatto tecnico e fornisce un'immagine più solida di ciò che sta accadendo nei sistemi. Il capitolo 4 riguarda la raccolta dei dati e come questo sia un po' diverso per la voce. La mia parte preferita era un esempio divertente di come, nei primi giorni, AT&T aveva la voce automatizzata per fare domande aperte, con gli umani che indirizzavano silenziosamente le chiamate in base alla risposta...
Continua a Leggere

Il bot Alquist vince l’Alexa Prize SocialBot Grand Challenge col team della Czech Technical University  

Amazon sfrutta la sua sfida SocialBot per potenziare l'IA conversazionale  All'inizio di questa settimana, Amazon ha annunciato i vincitori della sua annuale Alexa Prize SocialBot Grand Challenge, che promuove la ricerca su coerenza, consapevolezza del contesto, fluidità di risposta e altre aree fondamentali per il futuro dell'IA conversazionale. I team universitari partecipanti progettano social bot per i dispositivi abilitati Alexa e possono convalidare le loro idee interagendo direttamente con i milioni di clienti Alexa di Amazon. Ma il concorso non è solo un modo per i partecipanti di sperimentare e guadagnare borse di ricerca. Ogni team di ricerca mantiene la proprietà della proprietà intellettuale nei suoi sistemi e una vittoria potrebbe significare un'opportunità per integrare la propria ricerca nei piani futuri di Amazon. Alcuni progressi abbastanza significativi nell'intelligenza artificiale conversazionale e nei successivi articoli scientifici in genere emergono dall'evento.  I progressi di quest'anno sono stati soprattutto in termini di durata. Tutti e tre i finalisti hanno ottenuto conversazioni di 20 minuti, che erano state raggiunte solo una volta durante le prime tre edizioni della sfida. Inoltre, il tempo medio raggiunto dai social bot nei round finali è stato di 12 minuti e 42 secondi, più del doppio del tempo medio delle finali del 2020. Un team ha anche mostrato reali progressi in termini di qualità della conversazione, ottenendo un punteggio perfetto di 5/5. "La durata media fornisce un indicatore consolidato di come i progressi scientifici compiuti dai team del Premio Alexa hanno portato a grandi passi avanti nella coerenza e fluidità delle interazioni", ha detto a VentureBeat Prem Natarajan, vicepresidente della comprensione naturale per Alexa AI. Ha aggiunto che i partecipanti in generale "hanno ampiamente influenzato il campo dell'IA conversazionale attraverso i progressi che hanno raggiunto", menzionando i progressi nei modelli di generazion...
Continua a Leggere

I chatbot AI in aiuto alle persone affette da demenza senile

I chatbot AI potrebbero avvantaggiare i pazienti affetti da demenza  Una nuova ricerca pubblicata sul Journal of Medical Internet Research dimostra come i chatbot possano avvantaggiare i pazienti affetti da demenza e il supporto dei caregiver. Nonostante questo potenziale, la tecnologia è ancora agli inizi, il che significa che dovranno esserci chatbot basati su prove che siano sottoposti a valutazione da parte dell'utente finale. Basate su tecnologie come Alexa o Siri, le controparti mediche possono interpretare i sintomi, suggerire risorse e fornire supporto emotivo ai caregiver. Vagelis Hristidis è autore corrispondente e professore di informatica presso il Marlan and Rosemary Bourns College of Engineering di UC Riverside. Hristidis è anche fondatore della società di chatbot sanitari SmartBot360. “I chatbot di intelligenza artificiale hanno un grande potenziale per migliorare la comunicazione tra i pazienti e il sistema sanitario, data la carenza di personale sanitario e la complessità delle esigenze dei pazienti. Ciò è particolarmente importante per i pazienti affetti da demenza e gli operatori sanitari, che continuano ad aumentare con l'invecchiamento della popolazione e affrontano quotidianamente sfide di assistenza", ha affermato Hristidis. I vantaggi dei chatbot per i pazienti affetti da demenzaI chatbot possono essere utilizzati per l'allenamento della memoria o per stimolare i ricordi per i pazienti affetti da demenza e per gli operatori sanitari, i chatbot possono fornire consigli e supporto emotivo. La ricerca, tuttavia, ha scoperto che l'efficacia dei chatbot è valida solo quanto le conoscenze mediche utilizzate nella loro programmazione e la qualità delle interazioni dell'utente.  Il team di ricercatori includeva persone dell'Università dell'Alabama, della Florida International University e della UC Riverside. Il team ha identificato 501 app di chatbot prima di eliminare quelle che non avevano funzionalità di chat, nessuna chat con umani dal vivo, ness...
Continua a Leggere

Google LaMDA

Google mostra LaMDA, un'intelligenza artificiale di nuova generazione per il dialogo    Durante un discorso programmatico al Google I / O 2021, la conferenza annuale degli sviluppatori di Google, la società ha annunciato LaMDA, un sofisticato modello di linguaggio che secondo Google è di gran lunga migliore nel comprendere il contesto delle conversazioni rispetto ai modelli leader di oggi. Il CEO di Google Sundar Pichai afferma che LaMDA, che è stato creato per applicazioni di dialogo, è di dominio aperto e progettato per conversare su qualsiasi argomento. È importante sottolineare che il modello non deve essere riqualificato per avere un'altra conversazione. "Anche se è ancora in fase di ricerca e sviluppo, abbiamo utilizzato LaMDA internamente per esplorare nuove interazioni", ha detto Pichai. “Ad esempio, dì che volevi conoscere uno dei miei pianeti neri preferiti, Plutone. LaMDA conosce già molto su Plutone e milioni di altri argomenti ". I data scientist non devono programmare manualmente i concetti in LaMDA, perché nessuna delle risposte del modello è predefinita. LaMDA cerca di rispondere con risposte sensate, mantenendo il dialogo aperto e generando conversazioni naturali che non prendono mai due volte lo stesso percorso. https://youtu.be/_xLgXIhebxA  "È davvero impressionante vedere come LaMDA può portare avanti una conversazione su qualsiasi argomento", ha detto Pichai. Ma ha ammesso che il modello non è perfetto. “È ancora una ricerca iniziale, quindi non va tutto bene. A volte può dare risposte senza senso ", ha detto.  In un annuncio correlato, Google ha dettagliato il modello unificato multitask (MUM), un modello multimodale in grado di eseguire il multitasking per sbloccare le informazioni in modi nuovi. Formazione su oltre 75 lingue contemporaneamente, MUM può comprendere simultaneamente diverse forme di informazioni tra cui testo, immagini e video. È l'affermazi...
Continua a Leggere

Google Agent Assist for Chat

Google lancia Agent Assist for Chat in anteprima Google ha lanciato oggi Agent Assist for Chat in anteprima pubblica, un'estensione della sua piattaforma Contact Center AI che fornisce agli agenti del call center supporto tramite testo, oltre alle chiamate. Annunciato per la prima volta a settembre, Agent Assist tenta di identificare le intenzioni dei clienti e fornire agli agenti consigli in tempo reale come articoli e domande frequenti, nonché risposte ai messaggi. La chat online sta diventando uno dei modi più popolari per raggiungere le aziende per l'assistenza clienti. Nel 2020, sebbene il telefono e la voce fossero responsabili della maggior parte delle interazioni, la posta elettronica rappresenta circa il 13% delle interazioni con i clienti, riferisce IDC . La chat dal vivo senza automazione è responsabile di circa l'8% delle interazioni. E Salesforce afferma che circa il 69% dei consumatori sceglie i chatbot per una rapida comunicazione con i marchi. Smart Reply fornisce suggerimenti di risposta presi dagli agenti con le migliori prestazioni, a volte modificati per garantire che riflettano il tono e la voce del marchio. Agent Assist impara anche quando e quali consigli dare creando un modello personalizzato addestrato sui dati di un'azienda. Per quanto riguarda Knowledge Assist, sfrutta la knowledge base di un'azienda per fornire articoli e suggerimenti per le domande frequenti agli agenti man mano che la conversazione procede. Quando si utilizza Knowledge Assist, gli agenti non devono far aspettare il cliente mentre navigano tra app e dati per trovare la soluzione a un problema: la risposta viene loro consegnata. AI che fa la differenzaSecondo Google, i clienti che utilizzano Agent Assist per la chat sono stati in grado di gestire fino al 28% in più di conversazioni contemporaneamente aumentando la soddisfazione dei clienti del 10%. Inoltre rispondono in media fino al 15% più velocemente alle chat, riducendo i tassi di abbandono della c...
Continua a Leggere

Intelligenza artificiale e revisione dei contenuti dei social media

Le piattaforme online interattive sono diventate parte integrante della nostra vita quotidiana. Sebbene i contenuti generati dagli utenti, liberi dai tradizionali vincoli editoriali, abbiano stimolato vivaci comunicazioni online, migliorato i processi aziendali e ampliato l'accesso alle informazioni, ha anche sollevato questioni complesse su come moderare i contenuti online dannosi. Poiché il volume dei contenuti generati dagli utenti continua a crescere, è diventato sempre più difficile per le società di Internet e di social media tenere il passo con le esigenze di moderazione delle informazioni pubblicate sulle loro piattaforme. Le misure di moderazione dei contenuti supportate dall'intelligenza artificiale (AI) sono emerse come strumenti importanti per affrontare questa sfida. Che tu stia gestendo una piattaforma di social media o un sito di e-commerce, ridurre al minimo i contenuti dannosi è fondamentale per l'esperienza dell'utente. Tali contenuti dannosi possono includere qualsiasi cosa, dai post che promuovono la violenza agli abusi sui minori. In effetti, la gamma e l'ambito dei potenziali contenuti dannosi si sono dimostrati troppo ampi per essere esaminati dai moderatori umani in modo completo. I sistemi di intelligenza artificiale, progettati per rispecchiare il modo in cui gli esseri umani pensano ed elaborano le informazioni, potrebbero essere in grado di migliorare la velocità e l'accuratezza di questo processo. La tecnologia AI può acquisire grandi set di dati e insegnare alle macchine a identificare modelli o fare previsioni su determinati input. In definitiva, questa capacità consente ai computer di riconoscere e filtrare determinate parole o immagini con maggiore efficienza di quanto gli esseri umani possano elaborare queste informazioni. Come ulteriore vantaggio, questo riduce o potrebbe potenzialmente eliminare la necessità per i moderatori umani di essere direttamente esposti a contenuti dannosi. Sebbene i sistemi di intelligenza artifici...
Continua a Leggere

Il chatbot medico che utilizzava il GPT-3 di OpenAI ha detto a un falso paziente di uccidersi

Ryan è un editore di TechForge Media con oltre un decennio di esperienza che copre le ultime tecnologie e intervista figure di spicco del settore. Può spesso essere avvistato alle conferenze tecnologiche con un caffè forte in una mano e un laptop nell'altra. Se è geniale, probabilmente gli piace. Trovalo su Twitter: @Gadget_RySiamo abituati ai chatbot medici che danno consigli pericolosi , ma uno basato sul GPT-3 di OpenAI è andato molto oltre. Se hai vissuto sotto una roccia, GPT-3 è essenzialmente un generatore di testo molto intelligente che ha fatto vari titoli negli ultimi mesi. Solo Microsoft ha il permesso di usarlo per scopi commerciali dopo aver ottenuto i diritti esclusivi il mese scorso. In un mondo di notizie false e disinformazione, i generatori di testo come GPT-3 potrebbero un giorno avere implicazioni sociali molto preoccupanti. A ricercatori selezionati è stato permesso di continuare ad accedere a GPT-3 per, beh, la ricerca. Nabla, una società con sede a Parigi specializzata in tecnologia sanitaria, ha utilizzato una versione ospitata nel cloud di GPT-3 per determinare se potesse essere utilizzata per la consulenza medica (che, come notano , la stessa OpenAI mette in guardia poiché "le persone si affidano a cure mediche accurate informazioni per decisioni di vita o di morte, e gli errori qui potrebbero causare gravi danni ".) Con questo in mente, i ricercatori hanno deciso di vedere quanto sarebbe teoricamente in grado GPT-3 di assumere tali compiti nella sua forma attuale. Vari compiti, "approssimativamente classificati dalla sensibilità bassa ad alta dal punto di vista medico", sono stati stabiliti per testare le capacità di GPT-3: Chat amministratore con un pazienteControllo dell'assicurazione medicaSupporto per la salute mentaleDocumentazione medicaDomande e risposte medicheDiagnosi medicaI problemi iniziarono a sorgere sin dal primo compito, ma almeno non era particolarmente pericoloso. Nabla ha scoperto che la modella no...
Continua a Leggere

Il Premio Alexa 2021 punta sui chatbot multitasking

I chatbot multitasking sono la nuova sfida del premio Amazon Alexa Nel 2016, Amazon ha lanciato il Premio Alexa , una sfida annuale per creare chatbot basati sull'intelligenza artificiale in grado di mantenere una conversazione coerente e coinvolgente di 20 minuti su argomenti popolari. Da esso sono scaturite numerose innovazioni, tra cui la comprensione del linguaggio naturale, la generazione di risposte neurali, la modellazione della conoscenza del senso comune e le tecnologie per la politica del dialogo, che hanno portato a conversazioni più fluide e coinvolgenti. Ispirata da questo successo, Amazon lancia oggi una nuova sfida volta a incoraggiare gli sviluppatori a creare esperienze in grado di gestire attività multistep, multimodal e multiturn. La pandemia sembra avere un utilizzo sovralimentato delle app vocali, che era già in aumento . Secondo uno studio di NPR ed Edison Research, la percentuale di possessori di dispositivi abilitati alla voce che utilizzano i comandi almeno una volta al giorno è aumentata tra l'inizio del 2020 e l'inizio di aprile. Ma l'aumento dell'adozione non è stato correlato a un aumento della sofisticazione tecnologica degli assistenti vocali, almeno per alcuni aspetti. Ad esempio, le app vocali rimangono in gran parte incapaci di rispondere a più di una domanda alla volta con una singola risposta, il che può essere particolarmente frustrante negli ambienti aziendali in cui il multitasking è il normale corso degli affari. La nuova sfida del Premio Alexa, la sfida TaskBot, ha lo scopo di promuovere la ricerca in questa direzione. Si concentra sul miglioramento delle esperienze multimodali , cercando di stimolare lo sviluppo di flussi di lavoro di completamento delle attività "immersivi" e "intelligenti". Secondo Amazon, l'obiettivo è promuovere chatbot in grado di portare gli utenti dal punto A al punto B, sia che stiano cucinando o scrivendo un rapporto, o anche completando progetti DYI in casa. Come per la sfida iniziale ...
Continua a Leggere

AdmitHub raccoglie 14 milioni di dollari per chatbot incentrati sull’istruzione basati sull’intelligenza artificiale

AdmitHub , con sede a Boston, Massachusetts , una startup che sviluppa una piattaforma chatbot volta ad aumentare i tassi di iscrizione e laurea degli studenti, ha rivelato oggi di aver raccolto 14 milioni di dollari in un round di serie B guidato da Rethink Education. La società, che ha anche annunciato che cambierà il marchio come Mainstay, prevede di investire i fondi per espandere la propria forza lavoro e acquisire nuovi clienti nel settore dell'istruzione. La percentuale di abbandono scolastico tra i 16 ei 24 anni ha mostrato una diminuzione negli ultimi 20 anni. Tuttavia, negli Stati Uniti, anche il tasso di conseguimento dei diplomi è diminuito. Gli istituti quadriennali hanno in media un tasso di conseguimento dei diplomi del 60,4%, mentre gli istituti biennali che offrono diplomi associati hanno in media un tasso di diplomi del 31,6%. A causa della pandemia, in autunno 2020 iscrizioni universitari immersi per una cifra stimata di 400.000 studenti l'anno su anno. AdmitHub, fondato nel 2014, combina intelligenza artificiale, sollecitazioni proattive e una base di conoscenze per coinvolgere gli studenti tramite testo, e-mail e chat web. Offre un chatbot builder e trainer e dashboard di analisi progettati per coloro che non hanno un background tecnologico e consente agli amministratori di ordinare le conversazioni degli studenti in base al livello di priorità o alla campagna pertinente. AdmihHub afferma di aver ridotto il "disgelo estivo" - il fenomeno della motivazione a frequentare il college che si "scioglie" durante l'estate successiva al liceo - alla Georgia State University di oltre il 30%. In uno studio controllato randomizzato, gli studenti con accesso al chatbot di AdmitHub avevano il 3,3% in più di probabilità di iscriversi, traducendosi in una riduzione del 21% dello scioglimento estivo. La knowledge base da cui attingono i chatbot di AdmitHub comprende approfondimenti da oltre 4 milioni di domande che coprono oltre 6.000 argomenti....
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi