L’approccio di Google Cloud all’assistenza clienti potrebbe aiutare il gigante della ricerca a battere Amazon? 

  Prima della pandemia, The Home Depot ha iniziato a migrare i suoi sistemi IT e il software del servizio clienti dai propri data center ai server di Google Cloud.Con l'arrivo del COVID, gli acquirenti hanno invaso i siti Web dei rivenditori di casa, poiché i progetti fai-da-te sono diventati la nuova "notte in città". Google Cloud ha fornito lo spazio di archiviazione e la potenza che hanno consentito a The Home Depot di soddisfare tale domanda. Ma il lavoro tra The Home Depot e Google non si è fermato qui. Le aziende hanno lavorato insieme per creare una varietà di app cloud diverse che hanno consentito a The Home Depot di offrire servizi come il ritiro a bordo strada o il noleggio di attrezzature pesanti in modo digitale.  La scorsa settimana, The Home Depot ha dichiarato che estenderà un accordo pluriennale sui servizi cloud con Google Cloud. Sebbene i termini del contratto non siano stati resi noti, mostra il lavoro svolto da Google Cloud per guadagnare terreno sui suoi concorrenti, che può essere attribuito alla leadership del CEO dell'unità, Thomas Kurian.   Un recente profilo di Bloomberg discute la leadership di Kurian in Google Cloud, dove ha raddoppiato l'organizzazione di vendita dell'unità, reclutando venditori con le migliori prestazioni da altre società di software aziendali, come SAP.  Di conseguenza, Google è stata in grado di firmare clienti di alto profilo, come The Home Depot. Google Cloud conta anche Major League Baseball, Target e Goldman Sachs come clienti. La chiave di questi accordi potrebbe essere stata la volontà di Google di andare oltre la fornitura di ulteriore potenza di calcolo. Bloomberg riferisce che Google Cloud sta raggruppando prodotti al di fuori delle sue offerte principali, come Maps e Android, per diventare un'opzione più attraente per i clienti aziendali. Ancora più importante è l'approccio di Google Cloud ai problemi dei suoi clienti. Google Cloud non ha un CTO. Invece, l'azienda afferma che i suoi clienti sono il CTO. Gest...
Continua a Leggere

Un rilevatore di bugie basato sull’intelligenza artificiale per le conversazioni in call center

I ricercatori in Germania hanno utilizzato l'apprendimento automatico per creare un sistema di analisi audio destinato principalmente a fungere da macchina della verità basata sull'intelligenza artificiale per i clienti nelle comunicazioni audio con call center e personale di supporto. Il sistema utilizza un set di dati appositamente creato di registrazioni audio da 40 studenti e insegnanti durante i dibattiti su argomenti controversi, tra cui la moralità della pena di morte e le tasse universitarie. Il modello è stato addestrato su un'architettura che utilizza le reti neurali convoluzionali (CNN) e la memoria a lungo termine a breve termine ( LSTM ) e ha raggiunto un tasso di precisione riportato del 98%. Sebbene l'intento dichiarato del lavoro citi le comunicazioni dei clienti, i ricercatori ammettono che funziona efficacemente come rivelatore di bugie di uso generale: 'I risultati sono applicabili a un'ampia gamma di processi di servizio e particolarmente utili per tutte le interazioni con i clienti che avvengono tramite telefono. L'algoritmo presentato può essere applicato in qualsiasi situazione in cui sia utile per l'agente sapere se un cliente sta parlando con la sua convinzione. 'Ciò potrebbe, ad esempio, portare a una riduzione dei reclami assicurativi dubbi o alle dichiarazioni non veritiere nei colloqui di lavoro. Ciò non solo ridurrebbe le perdite operative per le società di servizi, ma incoraggerebbe anche i clienti a essere più veritieri.' Generazione di set di datiIn assenza di un adeguato set di dati pubblicamente disponibile in lingua tedesca, i ricercatori della Neu-Ulm University of Applied Sciences (HNU) hanno creato il proprio materiale di partenza. I volantini sono stati affissi all'università e nelle scuole locali, con 40 volontari selezionati con un'età minima di 16 anni. I volontari sono stati pagati con un buono Amazon di 10 euro. Le sessioni sono state condotte su un modello di club di dibattito progettato per polarizzare l'opinione e su...
Continua a Leggere

WebGraph il metodo di Machine Learning apprendimento automatico per bloccare gli annunci in base al comportamento del browser

Un metodo di apprendimento automatico per bloccare gli annunci in base al comportamento del browser locale  Ricercatori in Svizzera e negli Stati Uniti hanno ideato un nuovo approccio di apprendimento automatico per il rilevamento del materiale pubblicitario del sito Web basato sul modo in cui tale materiale interagisce con il browser, anziché analizzarne il contenuto o il comportamento della rete, due approcci che si sono rivelati inefficaci nel a lungo termine di fronte al cloaking CNAME  Soprannominato WebGraph , il framework utilizza un approccio di blocco degli annunci AI basato su grafici per rilevare contenuti promozionali concentrandosi su tali attività essenziali di pubblicità di rete - inclusi tentativi di telemetria e archiviazione del browser locale - che l'unica tecnica di elusione efficace sarebbe quella di non condurre queste attività . Sebbene gli approcci precedenti abbiano raggiunto tassi di rilevamento leggermente più elevati rispetto a WebGraph, tutti sono inclini a tecniche evasive, mentre WebGraph è in grado di avvicinarsi al 100% di integrità di fronte alle risposte contraddittorie, comprese le risposte ipotizzate più sofisticate che possono emergere di fronte a questo nuovo metodo di blocco degli annunci. Il documento è guidato da due ricercatori dello Swiss Federal Institute of Technology, in concerto con ricercatori dell'Università della California, Davis e dell'Università dell'Iowa. Oltre AdGraphIl lavoro è uno sviluppo di un'iniziativa di ricerca del 2020 con il browser Brave chiamato AdGraph , che ha caratterizzato due dei ricercatori del nuovo documento. AdGraph si basa su funzionalità di contenuto (pubblicità) , derivate dall'analisi degli URL, come chiave per il rilevamento di materiale commerciale. Tuttavia, queste caratteristiche rappresentano un singolo potenziale punto di errore per gli avversari che cercano di rilevare la presenza di sistemi di rilevamento degli annunci e di formulare metodi per evitarli. Questa dipendenza dall...
Continua a Leggere

Per le aziende la scadenza è il 2024 estano solo 3 anni per adottare l’AI l’intelligenza artificiale

Scadenza 2024: perché ti restano solo 3 anni per adottare l'AI  Se la tua azienda deve ancora abbracciare l'intelligenza artificiale , sei in una corsa contro il tempo. E secondo i miei calcoli, ti restano solo tre anni. Come sono arrivato al 2024 come scadenza per l'adozione dell'IA? La mia previsione, formulata con il consulente di KUNGFU.AI Paco Nathan , è radicata nel fatto che le curve J di molti futuristi mostrano che le innovazioni hanno in genere una finestra di opportunità da 12 a 15 anni, un periodo tra quando una tecnologia emerge e quando raggiunge punto di adozione diffusa.  Mentre l'intelligenza artificiale può essere fatta risalire alla metà degli anni '50 e l'apprendimento automatico risale alla fine degli anni '70, il concetto di deep learning è stato reso popolare dal documento "AlexNet" pubblicato nel 2012. Naturalmente, non è solo l'apprendimento automatico che ha iniziato il tempo . Sebbene il cloud computing sia stato inizialmente introdotto nel 2006, non è decollato fino al 2010 circa. Anche l'ascesa dell'ingegneria dei dati può essere fatta risalire allo stesso anno. Il documento originale per Apache Spark è stato pubblicato nel 2010 ed è diventato fondamentale per gran parte dell'odierna infrastruttura di dati distribuiti. Inoltre, il concetto di data science ha una data di inizio ampiamente riportata nel 2009. È stato allora che Jeff Hammerbacher, DJ Patil e altri hanno iniziato a ricevere riconoscimenti per aver guidato i team di data science e aver contribuito a definire la pratica. Se fai i conti, quelle date 2009-2012 ci mettono all'interno di quella finestra da 12 a 15 anni. E questo rende il 2024 il limite per le aziende che sperano di ottenere un vantaggio competitivo dall'IA. Puoi ancora ottenere un vantaggio, se agisci oraSe osservi il grafico qui sotto, tratto da Diffusion of Innovations di Everett Rogers, avrai un'idea di come coloro che aspettano di mettere in produzione l'IA perderanno l'opportunità di conquistare il mercato. Q...
Continua a Leggere

Wu Dao 2.0 – L’intelligenza artificiale AI più grande, più forte e più veloce dalla Cina

Non è un segreto che la Cina abbia il COVID-19 sotto controllo. Quando viaggi lì devi passare una quarantena in hotel di 2 settimane, ma una volta che sei nel paese, sei al sicuro. Probabilmente anche più sicuro di prima del COVID, poiché indossare una maschera fa ora parte dell'etichetta e le molte altre malattie respiratorie virali rischiano di essere in declino. Quindi, quando sono stato invitato a parlare alla conferenza annuale della Beijing Academy of Artificial Intelligence (BAAI) nella sezione AI for healthcare, ho prontamente accettato. Il BAAI è un'ottima piattaforma per mostrare tecnologia e talento in ampie categorie. L'istituto senza scopo di lucro incoraggia gli scienziati ad affrontare i problemi e promuovere scoperte nelle teorie, negli strumenti, nei sistemi e nelle applicazioni dell'IA. Inoltre, la BAAI ha un focus unico sulla ricerca a lungo termine sulla tecnologia AI. L'intelligenza artificiale è grande in Cina. Così grande che oltre 70.000 persone si registrano per l'evento e molti altri si sintonizzano per guardare le presentazioni BAAI dopo l'evento. E possono presentare approcci, algoritmi, sistemi e applicazioni molto nuovi. Tuttavia, il vero successo al BAAI è stato Wu Dao 2.0, un sistema che ha superato il GPT-3 di OpenAI in molti modi. L'Enciclopedia Britannica definisce il linguaggio come un "sistema di simboli convenzionali parlati, manuali o scritti mediante i quali gli esseri umani, in quanto membri di un gruppo sociale e partecipanti alla sua cultura, si esprimono". Possiamo concludere da questa definizione che il linguaggio è parte integrante della connessione umana. Non solo ci permette di condividere idee, pensieri e sentimenti tra di noi, il linguaggio ci permette anche di creare e costruire società e imperi. In parole semplici: il linguaggio ci rende umani. Secondo il professor Gareth Gaskell del Dipartimento di Psicologia dell'Università di York, il ventenne medio conosce tra 27.000 e 52.000 parole diverse. All'età di 60 anni,...
Continua a Leggere

Google Intrinsic

Google Parent svela Intrinsic: un'"altra scommessa" destinata a innovare e scalare i robot industrialiJohan MorenoCollaboratore  La società madre di Google, Alphabet, vuole rendere la costruzione, l'acquisto e l'addestramento di un robot industriale facile come acquistare un personal computer. Questo è stato il messaggio inviato oggi quando la società ha annunciato la sua ultima “Other Bet” — Intrinsic . Intrinsic è una società di software di robotica e intelligenza artificiale, derivata dalla "fabbrica Moonshot" di Alphabet X, dove l'azienda sperimenta una miriade di progetti di ricerca e sviluppo che vivono al di fuori delle attività principali dell'azienda. I robot industriali consentono alle aziende di produrre prodotti a un ritmo più veloce, in ambienti più piccoli e in modo più sostenibile. Tuttavia, i robot sono accessibili solo da una manciata di grandi aziende ed esperti di robotica a causa della complessità legata all'addestramento delle macchine.  I robot sono limitati nell'esecuzione di un determinato numero di attività e possono essere costosi da acquistare, configurare e utilizzare. In alcuni casi, i programmatori specializzati possono impiegare centinaia di ore a codificare i robot per eseguire compiti specifici. I robot industriali tradizionalmente mancano della percezione o delle abilità tattili necessarie per eseguire determinati compiti, come levigare oggetti di diverse forme e dimensioni. Date queste sfide, il team X di Alphabet credeva di poter utilizzare le scoperte nella robotica e nell'intelligenza artificiale per aiutare a reimmaginare le capacità dei robot industriali. Così ha reclutato un team di esperti nel campo della robotica, della percezione del computer, della progettazione meccanica e persino della produzione cinematografica. Incuba questa tecnologia da oltre 5 anni e il team includeva molte persone che hanno lavorato per aziende di robotica acquisite da Google in passato. Intrinsic sta sviluppando software e strumenti di intelligen...
Continua a Leggere

Un pilota di droni controllato dall’intelligenza artificiale ha battuto per la prima volta i piloti umani in una corsa di droni

Le corse dei droni sono uno sport sempre più popolare con grandi premi in denaro per professionisti qualificati. I nuovi algoritmi di controllo sviluppati presso l'Università di Zurigo (UZH) hanno battuto per la prima volta piloti umani esperti, ma presentano ancora notevoli limitazioni. In passato, i tentativi di sviluppare algoritmi automatizzati per battere gli esseri umani hanno riscontrato problemi con la simulazione accurata dei limiti del quadricottero e della traiettoria di volo necessaria. Le tradizionali traiettorie di volo attorno a un complesso percorso di corse di droni sono calcolate utilizzando metodi polinomiali che producono una serie di curve morbide, e queste non sono necessariamente veloci come le traiettorie più nitide e frastagliate percorse dai piloti umani. https://youtu.be/ZPI8U1uSJUs  Un team del Robotics and Perception Group dell'UZH ha sviluppato un algoritmo di pianificazione della traiettoria per calcolare il percorso ottimale in ogni punto del volo, invece di farlo sezione per sezione. I precedenti algoritmi di pilotaggio automatizzato UZH si erano dimostrati efficienti nell'evitare gli ostacoli e nel superare i cancelli che compongono il percorso, ma erano notevolmente più lenti anche dei piloti di droni inesperti. Questa volta i risultati sono stati migliori. "Il nostro drone ha battuto il giro più veloce di due piloti umani di livello mondiale su una pista sperimentale", afferma il team leader Davide Scaramuzza. Oltre ad essere più veloce, il sistema automatizzato era più coerente. Gli esseri umani possono avere circuiti buoni e cattivi, ma la macchina offre sempre il suo miglior gioco ed è molto meno probabile che si blocchi. Tuttavia, questo successo in questo esperimento ha un prezzo. Uno è che la pianificazione del volo richiede più potenza di calcolo di quella che il computer di bordo del drone può fornire, e attualmente ci vuole fino a un'ora per pianificare un volo di pochi minuti. La gestione dei voli in tempo reale richiede...
Continua a Leggere

L’intelligenza artificiale AI sostituirà gli scrittori ?

L'intelligenza artificiale non sostituirà gli scrittori in qualunque momento presto, ma il futuro potrebbe essere più vicino di quanto pensi   L'intelligenza artificiale per la creazione di contenuti è sovraffollata o alla fine tutti gli scrittori verranno sostituiti dai robot? Le aziende non hanno necessariamente bisogno di più contenuti, hanno bisogno di contenuti migliori che funzionino effettivamente. L'intelligenza artificiale sta facendo molto per semplificare il marketing e la gestione dei contenuti per le aziende a tutti i livelli. Puoi ottenere le cose ricercate, preparate, modificate e pubblicate in pochi minuti (anziché giorni o settimane). Il problema è che mentre l'intelligenza artificiale può automatizzare le attività di pubblicazione che richiedono tempo e aiutare a prevedere ciò che le persone vogliono leggere, non può ancora scrivere così bene.  Oggi, l'intelligenza artificiale fa ancora molto affidamento sul mettere insieme concetti o fatti in una divagazione semi-coerente, ma non può manipolare il fraseggio o altri elementi immateriali che inducono i clienti ad alzarsi e prendere atto. Le tecnologie di base dell'IA nell'area della creazione di contenuti includono attualmente Turing Natural Language Generation (T-NLG) di Microsoft - che vanta 17 miliardi di parametri - e la tecnologia Generative Pre-trained Transformer 3 (GPT-3) di OpenAI, che ha 175 miliardi di parametri di apprendimento automatico. Nel settembre 2020, Microsoft ha annunciato di aver concesso in licenza l'accesso alla tecnologia di GPT-3 per il suo uso "esclusivo", il che offre un indizio su dove si sta dirigendo questo settore in rapida crescita. In questa intervista, il CEO di Wordable e fondatore e CEO di Codeless , Brad Smith delinea gli attuali limiti dell'intelligenza artificiale per la creazione di contenuti, ci dice come sfruttare al meglio le sue capacità e guarda dove siamo diretti in un futuro non troppo lontano. Problemi chiave con i contenuti AI Garbage in. Garbage ou...
Continua a Leggere

Edge Impulse punta a portare funzionalità di intelligenza artificiale ai microcontrollori che alimentano i dispositivi elettronici di consumo

Edge Impulse combina AutoML e TinyML per rendere l'IA onnipresente Edge Impulse, una startup con sede a San Jose, mira a portare funzionalità di intelligenza artificiale ai microcontrollori che alimentano i dispositivi elettronici di consumo. La società ha creato una piattaforma basata su cloud per consentire agli sviluppatori di creare modelli di intelligenza artificiale destinati ai microcontrollori.     AutoML si concentra su due aspetti critici dell'apprendimento automatico: acquisizione e previsione dei dati. La piattaforma AutoML astrae tutti i passaggi che si verificano tra queste due fasi. In sostanza, gli sviluppatori portano il proprio set di dati, identificano le etichette e premono un pulsante per generare un modello accuratamente addestrato pronto per la previsione. MSVTinyML è una tecnica che ottimizza i modelli di machine learning per dispositivi embedded con risorse limitate. Questi dispositivi integrati funzionano a batterie con potenza di elaborazione e disponibilità di memoria limitate. I modelli ML tradizionali non possono essere distribuiti su questi dispositivi. Con TinyML, i modelli vengono convertiti e ottimizzati per funzionare sull'unità più piccola di un dispositivo elettronico: il microcontrollore.  Il targeting dei microcontrollori per l'esecuzione dell'IA è un processo complesso e dispendioso in termini di tempo. Gli sviluppatori devono acquisire dati da vari sensori collegati al microcontrollore. Quindi, devono pre-elaborare e normalizzare il set di dati prima di inviarlo a una rete neurale complessa. Le reti neurali artificiali necessitano di un'enorme potenza di calcolo fornita da CPU e GPU di fascia alta per addestrare i modelli. Una volta che il modello è stato addestrato e valutato per l'accuratezza e la precisione, viene convertito e compattato per essere eseguito in dispositivi basati su microcontrollore.  Edge Impulse ha gestito l'intera pipeline dall'acquisizione dei dati alla distribuzione del modello. Dispone di strumenti ...
Continua a Leggere

Xilinx Versal HBM 

Xilinx alza la posta nell'elaborazione ad alte prestazioni con Versal HBM  A differenza di molte aziende in fase di acquisizione (in questo caso da AMD), Xilinx continua a lanciare nuovi prodotti a un ritmo frenetico. L'azienda ha appena annunciato le ultime novità nella sua Adaptive Compute Acceleration Platform, o ACAP, per applicazioni su scala data center ad alte prestazioni. Il nuovo Versal HBM combina tutte le funzionalità programmabili e le interfacce di rete ad alta velocità della sua piattaforma Versal con la memoria DRAM ad alta larghezza di banda (nello specifico HBM2e) per alleviare i colli di bottiglia associati all'elaborazione di grandi quantità di dati. Una delle maggiori sfide che l'industria tecnologica deve affrontare è la rapida crescita dei dati. Contenuti di intrattenimento ad alta definizione, giochi eSports, social network basati su video, dispositivi connessi/Internet delle cose, modelli scientifici, sequenziamento del DNA e intelligenza artificiale sono solo alcune delle applicazioni che stanno alimentando la creazione e l'uso di quantità di dati. L'elaborazione di questi dati, soprattutto in modo tempestivo, è una sfida enorme.     Per le prestazioni di calcolo, l'HBM Versal combina un mix eterogeneo di core CPU dual Arm Cortex-A72 e core CPU dual-Cortex-R5F in tempo reale con estensioni in virgola mobile, insieme ai motori FPGA adattabili Versal dell'azienda e Digital Signal Processor (DSP ) motore. Tutti questi motori di elaborazione sono collegati tramite una rete programmabile su chip. Per alimentare tutti questi motori sono necessari I/O ad alta velocità e un'elevata larghezza di banda di memoria. Di conseguenza, Xilinx ha integrato i più recenti PCIe Gen5, SerDes da 112 Gbps, 600 Gbps Ethernet e core Interlaken, motori crittografici da 400 Gbps disponibili nei prodotti Versal Premium con 32 GB di memoria HBM2e con una larghezza di banda di memoria di 820 GB/s. Potenziali applicazioni ad alto rendimento e set di dati di grandi dimensi...
Continua a Leggere