La Cina lancerà la versione beta digitale dello yuan nel 2021

Le CBDC hanno il potenziale per intaccare l'attività di operatori stranieri come Visa e Mastercard nel mercato dei pagamenti da 27 trilioni di dollari in Cina. La Blockchain Service Network (BSN) cinese ha in programma di lanciare una versione beta della valuta digitale della banca centrale (CBDC) entro la seconda metà del 2021. CBDC - il primo nel suo genere - è una versione digitale dello yuan cinese. La mossa dovrebbe dare una spinta all'economia cinese e spingere lo yuan a una posizione di leadership. Inoltre, il BSN sanzionato dal governo sta ora lavorando a una rete di pagamento digitale universale (UDPN), che dovrebbe essere in pieno svolgimento nei prossimi cinque anni. Con le valute digitali della banca centrale che stanno ottenendo l'accettazione in tutto il mondo, BSN intende costruire una rete di pagamento in valuta digitale. La rete universale sarà costruita in collaborazione con banche internazionali e società tecnologiche. “Questa rete di pagamento digitale cambierà completamente l'attuale metodo di pagamento e circolazione, abilitando un metodo di trasferimento di valuta digitale standardizzato e una procedura di pagamento per qualsiasi sistema informativo. La versione beta di questa soluzione di pagamento globale conveniente e conveniente sarà lanciata nella seconda metà del 2021 ", secondo un post sul blog ufficiale . A partire dal 2020, nove paesi, oltre alla Cina, gravitano verso le CBDC tra cui Stati Uniti, Corea del Sud e Svezia. All'inizio di quest'anno, la Banca popolare cinese ha concluso il suo secondo programma pilota CBDC. In questo processo, a 100.000 residenti della città di Suzhou sono stati emessi 20 milioni di yuan digitali e gli è stato permesso di spendere digitalmente, online o offline. Il primo processo si è tenuto nell'ottobre 2020 quando alle persone del distretto di Luohu a Shenzhen sono stati dati 10 milioni di yuan. Secondo i resoconti dei media , le CBDC hanno il potenziale per intaccare l'attività di attor...
Continua a Leggere

Google presenta il set di dati ToTTo per affrontare il problema delle allucinazioni

Nella maggior parte dei casi, l'allucinazione si verifica a causa della divergenza tra la fonte e il riferimento. Google ha sviluppato un set di dati di generazione da tabella a testo di dominio aperto chiamato ToTTo per superare il problema delle allucinazioni. Il set di dati ToTTo è composto da 121.000 esempi di addestramento e ha 7.500 esempi ciascuno per lo sviluppo e il test. Il team di Google afferma che ToTTo è un punto di riferimento adatto per la ricerca nella generazione di testo ad alta precisione. Il problema dell'allucinazioneL'allucinazione si riferisce alla generazione di un testo che non è "fedele" alla fonte. Al centro della maggior parte delle applicazioni di PNL risiede la generazione di testo in linguaggio naturale dal contenuto di origine. Gli esempi includono la sintesi, la traduzione automatica, la generazione di dati in testo, ecc. Tuttavia, ci sono stati innumerevoli casi in cui i sistemi neurali hanno generato un testo infedele alla fonte. Nella maggior parte dei casi, l'allucinazione si verifica a causa della divergenza tra la fonte e il riferimento. Detto questo, l'allucinazione è stata osservata anche in riferimenti puliti. Significa che l'allucinazione si verifica quando il sistema rileva correlazioni errate tra le diverse parti dei dati di allenamento. Con i dati ei modelli che diventano sempre più grandi e complicati, l'allucinazione indotta da correlazioni errate può limitare gravemente l'utilità dei sistemi neurali in molte situazioni del mondo reale, una preoccupazione pressante, specialmente quando si genera testo relativo a campi medici, finanziari o ingegneristici. In questi casi, è del tutto inaccettabile sia "allucinare" contenuti inesistenti o errati, sia omettere informazioni. ToTTo DatasetIl processo di valutazione della fedeltà di un testo generato può essere impegnativo. Tuttavia, l'attività diventa più comoda quando il contenuto di origine è in un formato tabulare o strutturato. I dati in forma tabular...
Continua a Leggere

K Health raccoglie 132 milioni di dollari per lanciare un servizio pediatrico di telemedicina basato sull’intelligenza artificiale

K Health, con sede a New York, ha chiuso oggi un round di finanziamento di serie E da 132 milioni di dollari guidato da GGV Capital e Valor Equity Partners, portando il totale raccolto fino ad oggi a oltre 271 milioni di dollari. In concomitanza con la chiusura del round, K Health ha lanciato K for Parents, un programma che offre ai genitori l'accesso a un pediatra per diagnosticare e curare a distanza i bambini dai 3 ai 17 anni. La domanda di tecnologie di triaging come i robot conversazionali è aumentata notevolmente quando la pandemia raggiunge nuovi picchi spaventosi. Secondo uno studio pubblicato dai Centri statunitensi per il controllo e la prevenzione delle malattie (CDC), milioni di pazienti aspettano almeno due ore per vedere un operatore sanitario . Giganti della tecnologia come IBM, Facebook e Microsoft hanno collaborato con governi e industria privata per implementare soluzioni basate su chatbot in risposta, così come un certo numero di startup . Aziende come Current Health e Twistle hanno collaborato con Providence e altri fornitori di servizi sanitari per sperimentare piattaforme di monitoraggio della salute a domicilio. Anche prima della pandemia, nove in 10 anziani hanno detto preferirebbero rimanere nelle loro case per i prossimi 10 anni, evidenziando la necessità di soluzioni di monitoraggio sanitario a distanza. Il cofondatore Allon Bloch, in precedenza CEO di Wix e Vroom, ritiene che la telemedicina potrebbe aiutare a ridurre i costi spesso esorbitanti delle visite mediche regolari nella piattaforma statunitense K Health ingerisce storie mediche, risultati clinici e l'esperienza di oltre 10.000 medici per fornire informazioni sul trattamento centinaia di malattie. Negli ultimi anni, K Health si è notevolmente ampliata grazie alle partnership con compagnie assicurative come Anthem. L'azienda ha recentemente rilasciato i suoi servizi di telemedicina in spagnolo e ha collaborato con la Louisiana State University per estendere l'accesso...
Continua a Leggere

OncoHost raccoglie 8 milioni di dollari per sviluppare l’intelligenza artificiale che predice le risposte al trattamento del cancro

OncoHost , una società che sviluppa la tecnologia AI per caratterizzare, analizzare e prevedere la risposta del paziente al trattamento, ha annunciato oggi di aver raccolto 8 milioni di dollari. La società afferma che i fondi verranno utilizzati per finanziare le sperimentazioni cliniche in corso di OncoHost, aprire una filiale con sede negli Stati Uniti e prepararsi per il prossimo lancio della piattaforma di profilazione della risposta dell'host basata su AI dell'azienda. Il tasso di mortalità per cancro è diminuito del 2,2% dal 2016 al 2017, il più grande calo di un solo anno, secondo l' American Cancer Society . Ma c'è una tendenza al rialzo nell'incidenza del cancro. Le persone nate dal 1960 avranno almeno una possibilità su due di contrarre il cancro nel corso della loro vita, secondo uno studio recente . Mentre alcuni tipi di cancro, come il cancro al seno, hanno un tasso di sopravvivenza relativa a cinque anni di quasi il 100%, altri sono difficili da trattare e hanno alti tassi di recidiva. Ad esempio, il glioblastoma e il cancro ovarico si ripresentano in quasi tutti i pazienti, indipendentemente dal trattamento. OncoHost è una società di oncologia di precisione in fase clinica che sviluppa una piattaforma per prevedere la reattività alle terapie contro il cancro. Yuval Shaked, membro del dipartimento di biologia cellulare e ricerca sul cancro di Technion, ha cofondato OncoHost nel 2017 sulla base della sua ricerca che dimostra che le terapie antitumorali inducono una serie di effetti indesiderati nei tessuti sani, alcuni dei quali possono promuovere l'aggressività del tumore. Le modalità di trattamento del cancro tra cui immunoterapia, chemioterapia, farmaci mirati, radiazioni e chirurgia possono innescare una serie di reazioni fisiologiche nei pazienti, afferma Shaked. Questi effetti includono livelli elevati di citochine, una categoria ampia e sciolta di piccole proteine ​​importanti nella segnalazione cellulare, nonché fattori di crescita...
Continua a Leggere

Trovata.io aggrega i conti bancari aziendali con l’intelligenza artificiale AI

Trovata.io raccoglie $ 20 milioni per aggregare conti bancari aziendali con AI La startup tecnologica bancaria Trovata.io ha annunciato oggi di aver raccolto 20 milioni di dollari in un round di serie A guidato da Wells Fargo Strategic Capital. L'investimento verrà utilizzato per fornire nuovi servizi e accelerare le API multi-banca a livello globale, afferma la società, e per aggiungere altri partner di distribuzione bancaria. Il fondatore e CEO di Trovata Brett Turner, che ha trascorso del tempo presso Deloitte e Amazon, ha previsto che l'ascesa di aggregatori di banche di consumo che guidano il fintech porterebbe ad API dirette per servizi di banca commerciale e tesoreria da parte delle banche di tutto il mondo. Secondo lui, queste integrazioni bancarie predefinite avrebbero eliminato la necessità delle aziende di implementazioni legacy o supporto IT e avrebbero consentito l'auto-configurazione. Turner ha lanciato Trovata con 35 dipendenti nel 2019 in previsione della trasformazione, con una piattaforma per aggregare i saldi bancari e le transazioni delle aziende in modo nativo su API bancarie all'ingrosso. Utilizzando l' intelligenza artificiale e l'apprendimento automatico , Trovata può automatizzare flussi di lavoro incentrati sul contante come reporting, analisi e previsioni di cassa, consentendo alle aziende di vedere quanto denaro hanno in tempo reale mentre gestiscono il flusso di cassa e costruiscono e mantengono previsioni. Trovata funge da data lake ad alte prestazioni per archiviare e gestire i dati bancari in un ambiente multi-banca scalabile. La piattaforma raccoglie e normalizza i dati e quindi genera una previsione, sfruttando l'apprendimento automatico per stabilire una linea di base e analizzare le tendenze storiche per aumentare l'accuratezza della previsione. Trovata consente ai clienti di includere i dati dei tag Square per regione, entità, divisione o etichetta arbitraria. Inoltre, traduce tutti gli importi non denominati in U...
Continua a Leggere

Googel Product Discovery Solutions for Retail : suite di soluzioni basate sull’intelligenza artificiale per i rivenditori

Google lancia una suite di soluzioni basate sull'intelligenza artificiale per i rivenditori Google ha annunciato oggi il lancio di Product Discovery Solutions for Retail, una suite di servizi progettata per migliorare le capacità di e-commerce dei rivenditori e aiutarli a offrire esperienze personalizzate ai clienti. Product Discovery Solutions for Retail riunisce algoritmi di intelligenza artificiale e un servizio di ricerca, Cloud Search for Retail, che sfrutta la tecnologia di ricerca di Google per potenziare gli strumenti di ricerca dei prodotti dei rivenditori. La pandemia e il corrispondente aumento degli acquisti online minacciano di spingere le catene di approvvigionamento fino al punto di rottura. All'inizio della crisi del COVID-19, Amazon è stata costretta a limitare la quantità di inventario che i fornitori potevano inviare ai suoi magazzini. Il volume degli ordini e-commerce è aumentato del 50% rispetto al 2019 e i tempi di spedizione per prodotti come i mobili sono più che raddoppiati a marzo. Inoltre, le vendite digitali complessive negli Stati Uniti sono aumentate del 30%, accelerando la transizione dello shopping online di ben due anni . Product Discovery Solutions for Retail, che è generalmente disponibile per tutte le aziende a partire da oggi, mira ad affrontare le sfide con l'intelligenza artificiale e l'apprendimento automatico. A tal fine, include l'accesso alle raccomandazioni di Google AI, che utilizza l'apprendimento automatico per adattarsi dinamicamente al comportamento dei clienti e ai cambiamenti di variabili come assortimento, prezzi e offerte speciali. Raccomandazioni AI , che è stata lanciata in beta a luglio ed è ora generalmente disponibile, eccelle apparentemente nel gestire i consigli in scenari con prodotti a coda lunga e utenti e articoli a freddo. Grazie a modelli di deep learning "affamati di contesto" sviluppati in collaborazione con Google Brain e Google Research, è in grado di ricavare informazioni su decine d...
Continua a Leggere

DALL-E è più importante di GPT-3

AI e creatività: perché è importante l'ultimo modello di OpenAI OpenAI l'ha fatto di nuovo. All'inizio di questo mese, OpenAI, l'organizzazione di ricerca dietro il tanto pubblicizzato modello linguistico GPT-3 della scorsa estate, ha rilasciato un nuovo modello di intelligenza artificiale chiamato DALL-E . Sebbene abbia generato meno entusiasmo rispetto a GPT-3, DALL-E ha implicazioni ancora più profonde per il futuro dell'IA. In poche parole, DALL-E accetta i sottotitoli di testo come input e produce immagini originali come output. (Il nome è un omaggio all'artista surrealista Salvador Dalí e all'adorabile robot Pixar WALL-E.) Ad esempio, quando vengono fornite frasi diverse come "un orologio verde pentagonale", "una sfera di fuoco" o "un murale di una zucca blu sul lato di un edificio", DALL-E è in grado di generare rendering visivi incredibilmente accurati . (Vale la pena dedicare qualche minuto a provare tu stesso alcuni esempi .) Perché DALL-E è importante? Per cominciare, fa presagire l'alba di un nuovo paradigma di AI noto come “AI multimodale” che sembra destinato a definire il futuro dell'intelligenza artificiale. I sistemi di intelligenza artificiale multimodale sono in grado di interpretare, sintetizzare e tradurre tra più modalità informative, nel caso di DALL-E, linguaggio e immagini. DALL-E non è il primo esempio di AI multimodale ma è di gran lunga il più impressionante fino ad oggi. Il cofondatore di OpenAI Ilya Sutskever lo ha riassunto bene: “Il mondo non è solo testo. Gli esseri umani non si limitano a parlare: vediamo anche. Molti contesti importanti derivano dal guardare ". La maggior parte dei sistemi di IA oggi esistenti tratta solo un tipo di dati. I modelli NLP (es. GPT-3) gestiscono solo testo; i modelli di visione artificiale (ad esempio, sistemi di riconoscimento facciale) gestiscono solo immagini. Questa è una forma di intelligenza molto meno ricca di quella che il cervello umano ottiene senza sforzo. Gli...
Continua a Leggere

La tecnologia SLAM

La tecnologia SLAM è stata un punto di svolta nel miglioramento dell'autonomia dei robot. Fino a poco tempo, i robot hanno lavorato principalmente in zone in cui le dimensioni dell'ambiente erano predefinite. Anche se i robot escono dalle gabbie e lavorano in luoghi quotidiani come magazzini o ospedali, la maggior parte di loro ha una conoscenza preliminare del proprio ambiente ed esegue una serie fissa di compiti. Ora, poiché i robot acquisiscono maggiore autonomia ed eseguono attività in ambienti esterni e interni, sono tenuti a ricognire l'ambiente circostante per funzionare in modo sicuro ed efficiente. Tuttavia, non è facile per i robot navigare su terreni nuovi, complessi e dinamici senza informazioni preesistenti. Qui, diamo uno sguardo alla tecnologia di localizzazione e mappatura simultanea o tecnologia SLAM che guida i robot autonomi in tali ambienti. Cos'è la tecnologia SLAM?La tecnologia SLAM è un programma per computer per costruire una mappa virtuale dei dintorni di un agente e aggiornare le sue coordinate in tempo reale. Questo processo in più fasi include l'allineamento dei dati del sensore utilizzando più algoritmi che utilizzano le capacità di elaborazione parallela delle unità di elaborazione grafica (GPU). Senza la conoscenza preliminare della posizione del robot, la tecnologia SLAM può raccogliere le informazioni spaziali dell'ambiente dell'agente e costruire una mappa per aiutare i robot nella navigazione. Le informazioni vengono raccolte utilizzando diversi tipi di sensori. La tecnologia SLAM relativamente più recente utilizza le telecamere e si chiama Visual SLAM o VSLAM. Mentre la tecnologia precedente come il GPS poteva mappare un agente o esseri umani, i robot non possono utilizzare il GPS poiché non può essere implementato in un ambiente interno e non sono sufficientemente accurati all'aperto poiché l'attività di navigazione richiede una precisione perfetta. Come funziona?La tecnologia SLAM utilizza metodi di localiz...
Continua a Leggere

Cure.fit acquisisce il body tracker AI Onyx

Cure.fit acquisisce il body tracker AI Onyx per abilitare video di allenamento bidirezionali La vendita di video di esercizi preregistrati per gli allenamenti a casa è stata per decenni un modello di business praticabile e la pandemia ha solo aumentato la necessità di soluzioni domestiche che abbracciano ogni categoria di fitness immaginabile. Ma questi video non potevano sostituire un elemento chiave della formazione di persona: l'attenzione individuale di un trainer personale o di gruppo. Ora la startup sanitaria più finanziata dell'India sta facendo una mossa per colmare questa lacuna, utilizzando il sistema di intelligenza artificiale di un'azienda californiana per sostituire gli allenatori di fitness umani nelle case degli utenti. Attualmente disponibile come app iOS e Android, con supporto per Apple TV e dispositivi di visualizzazione Chromecast, la piattaforma Cure.fit offre sia video di esercizi che lezioni di gruppo online , ricorrendo a un semplice "misuratore di energia" come semplice metrica dell'attività di un utente mentre ti alleni. L'acquisizione da parte di Cure.fit di Onyx , una società con un'omonima app per il fitness, consentirà di sostituire il "misuratore di energia" con un sofisticato sistema di visione artificiale in grado di segmentare un utente dal suo background, riconoscere vari tipi di attività di allenamento e contare automaticamente ripetizioni senza bisogno di un allenatore umano. Onyx può anche comprendere le prestazioni di un utente, correggendo i problemi di forma e offrendo motivazioni opportunamente programmate, proprio come un allenatore umano. L'acquisizione di Onyx da parte di Cure.fit è significativa per i decisori tecnici perché dimostra come le tecnologie di intelligenza artificiale per la visione artificiale applicate capovolgano o migliorino notevolmente le aziende consolidate . Per quanto impressionanti possano essere i video di allenamento di Cure.fit, la loro interattività limitata è uno svantaggio rispetto ...
Continua a Leggere

Ricerca del movimento tattile AI : un framework AI che prevede il movimento degli oggetti da immagini e dati tattili

I ricercatori sviluppano un framework AI che prevede il movimento degli oggetti da immagini e dati tattili Recenti ricerche sull'IA hanno evidenziato le sinergie tra tatto e visione. Uno consente la misurazione della superficie 3D e delle proprietà inerziali, mentre l'altro fornisce una visione olistica dell'aspetto proiettato degli oggetti. Basandosi su questo lavoro, i ricercatori della Samsung, della McGill University e della York University hanno studiato se un sistema di intelligenza artificiale potesse prevedere il movimento di un oggetto dalle misurazioni visive e tattili del suo stato iniziale. "Ricerche precedenti hanno dimostrato che è difficile prevedere la traiettoria degli oggetti in movimento, a causa delle proprietà geometriche e di attrito sconosciute e delle distribuzioni di pressione indeterminate sulla superficie interagente", hanno scritto i ricercatori in un documento che descrive il loro lavoro. "Per alleviare queste difficoltà, ci concentriamo sull'apprendimento di un predittore addestrato per catturare gli elementi più informativi e stabili di una traiettoria di movimento". I ricercatori hanno sviluppato un sensore - See-Through-your-Skin - che, secondo loro, può acquisire immagini fornendo misurazioni tattili dettagliate. Oltre a questo, hanno creato un framework chiamato Generative Multimodal Perception che sfrutta i dati visivi e tattili quando disponibili per apprendere una rappresentazione che codifica le informazioni sulla posa, la forma e la forza dell'oggetto e fare previsioni sulla dinamica degli oggetti. E per anticipare lo stato di riposo di un oggetto durante le interazioni fisiche, hanno utilizzato ciò che chiamano previsioni dello stato di riposo insieme a un set di dati visuotactile dei movimenti in scene dinamiche, inclusi oggetti in caduta libera su una superficie piana, che scivolano su un piano inclinato e sono perturbati dal loro riposo. posa. Negli esperimenti, i ricercatori affermano che il loro approcc...
Continua a Leggere