Amazon lancia nuovi servizi AI per DevOps e applicazioni di business intelligence

Quando si tratta delle aspettative dei clienti, la pandemia ha cambiato tutto
Scopri come accelerare il servizio clienti, ottimizzare i costi e migliorare il self-service in un mondo incentrato sul digitale.

Amazon ha lanciato oggi SageMaker Data Wrangler, un nuovo servizio AWS progettato per accelerare la preparazione dei dati per l’apprendimento automatico e le applicazioni AI. Inoltre, l’azienda ha tolto gli involucri da SageMaker Feature Store, un prodotto appositamente creato per denominare, organizzare, trovare e condividere funzionalità o le singole variabili indipendenti che fungono da input in un sistema di apprendimento automatico. Oltre a questo, Amazon ha presentato SageMaker Pipelines, che il CEO Andy Jassy ha descritto come un servizio CI / CD per l’IA. Inoltre, l’azienda ha descritto in dettaglio DevOps Guru e QuickSight Q, offerte che utilizzano l’apprendimento automatico per identificare problemi operativi, fornire business intelligence e trovare risposte alle domande nei knowledge store, oltre a nuovi prodotti sul contact center e sul lato industriale del business di Amazon.

Durante un keynote alla conferenza re: Invent di Amazon, Jassy ha affermato che Data Wrangler ha oltre 300 tipi di trasformazione di conversione incorporati. Il servizio consiglia le trasformazioni in base ai dati in un set di dati di destinazione e applica queste trasformazioni alle funzionalità, fornendo un’anteprima delle trasformazioni in tempo reale. Data Wrangler verifica inoltre che i dati siano “validi ed equilibrati”. Per quanto riguarda SageMaker Feature Store, Jassy ha affermato che il servizio, accessibile da SageMaker Studio, funge da componente di archiviazione per le funzionalità e può accedere alle funzionalità in batch o sottoinsiemi. SageMaker Pipelines, nel frattempo, consente agli utenti di definire, condividere e riutilizzare ogni passaggio di un flusso di lavoro di apprendimento automatico end-to-end con modelli di flusso di lavoro personalizzabili preconfigurati mentre registrano ogni passaggio in SageMaker Experiments.

DevOps Guru è una bestia completamente diversa. Amazon afferma che quando viene distribuito in un ambiente cloud, è in grado di identificare allarmi mancanti o configurati in modo errato per avvisare dell’avvicinarsi dei limiti delle risorse e delle modifiche al codice e alla configurazione che potrebbero causare interruzioni. Inoltre, DevOps Guru mette in luce cose come la capacità di elaborazione insufficiente, l’eccessivo utilizzo dell’I / O del database e le perdite di memoria, mentre consiglia azioni correttive.

Amazon QuickSight, che era già generalmente disponibile, mira a fornire soluzioni di business intelligence scalabili e incorporabili su misura per il cloud. A tal fine, Amazon afferma di poter scalare fino a decine di migliaia di utenti senza alcuna gestione dell’infrastruttura o pianificazione della capacità. QuickSight può essere integrato in applicazioni con dashboard ed è disponibile con prezzi pay-per-session, generando automaticamente riepiloghi dei dashboard in un linguaggio semplice. Un nuovo servizio complementare chiamato QuickSight Q risponde alle domande in linguaggio naturale, attingendo alle risorse disponibili e utilizzando l’elaborazione del linguaggio naturale per comprendere il linguaggio aziendale specifico del dominio e generare risposte che riflettano il gergo del settore.

Questa mattina Amazon non ha perso l’opportunità di distribuire gli aggiornamenti su Amazon Connect, la sua offerta di contact center cloud omnicanale. La novità di oggi è Real-Time Contact Lens, che identifica i problemi in tempo reale per influenzare le azioni dei clienti durante le chiamate. Amazon Connect Voice ID, che funziona anche in tempo reale, esegue l’autenticazione utilizzando l’analisi vocale basata sull’apprendimento automatico “senza interrompere la conversazione naturale”. E Connect Tasks semplifica apparentemente le attività di follow-up per gli agenti consentendo ai manager di automatizzare completamente alcune attività.

Amazon ha anche lanciato Amazon Monitron, un sistema di monitoraggio delle apparecchiature end-to-end per consentire la manutenzione predittiva con sensori, un gateway, un’istanza cloud AWS e un’app mobile. Un servizio adiacente, Amazon Lookout for Equipment, invia i dati dei sensori ad AWS per creare un modello di machine learning, estraendo i dati dai sistemi operativi della macchina come OSIsoft per apprendere modelli normali e utilizzando dati in tempo reale per identificare i primi segnali di allarme che potrebbero portare alla macchina fallimenti.

Per le aziende industriali alla ricerca di una soluzione di analisi più olistica e incentrata sulla visione artificiale, c’è AWS Panorama Appliance, una nuova appliance plug-in di Amazon che si connette a una rete e identifica i flussi video dalle telecamere esistenti. Panorama Appliance viene fornito con modelli di visione artificiale per la produzione, la vendita al dettaglio, l’edilizia e altri settori, supportando modelli costruiti in SageMaker e integrandosi con i servizi AWS IoT, incluso SiteWise, per inviare dati per analisi più ampie.

Insieme a Panorama Appliance viene fornito l’SDK AWS Panorama, che consente ai fornitori di hardware di creare nuove telecamere che eseguono la visione artificiale ai margini. Funziona con chip progettati per la visione artificiale e il deep learning di Nvidia e Ambarella e Amazon afferma che le fotocamere compatibili con Panorama funzioneranno immediatamente con i servizi di machine learning AWS. I clienti possono creare e addestrare modelli in SageMaker e distribuirli alle telecamere con un solo clic.

La sfilza di annunci arriva dopo che Amazon ha debuttato AWS Trainium , un chip progettato su misura per offrire ciò che l’azienda descrive come un modello di apprendimento automatico conveniente nel cloud. Amazon afferma che quando Trainium sarà disponibile nella seconda metà del 2020, offrirà il maggior numero di teraflop di qualsiasi istanza di machine learning nel cloud, dove un teraflop si traduce in un chip in grado di elaborare un trilione di calcoli al secondo.

Di ihal