Gli altoparlanti intelligenti come Google Alexa o Siri influenzano il modo in cui i bambini comunicano?

Gli agenti conversazionali come Alexa influenzano il modo in cui i bambini comunicano?  Un team di ricercatori dell'Università di Washington ha deciso di studiare se gli agenti conversazionali, come Alexa o Siri, influenzano il modo in cui i bambini comunicano con altri umani. Il recente studio ha scoperto che probabilmente non è così e che i bambini sono sensibili al contesto in queste conversazioni.  Gli esperimenti hanno coinvolto un agente di conversazione che insegnava a 22 bambini di età compresa tra 5 e 10 anni a usare la parola "bungo" per chiedere all'agente di parlare più velocemente. I bambini usavano costantemente la parola quando il discorso del robot rallentava. Tuttavia, il significato non si è trasferito ai bambini quando hanno avuto conversazioni con i loro genitori, poiché la maggior parte dei bambini lo ha preso come uno scherzo interno. Quando i bambini parlavano con i ricercatori, non usavano quasi mai il bungo . La ricerca è stata presentata alla conferenza Interaction Design and Children del 2021 a giugno. Alexis Hiniker è un autore senior e un assistente professore all'Università dell'Informazione. "Eravamo curiosi di sapere se i bambini acquisissero abitudini di conversazione dalle loro interazioni quotidiane con Alexa e altri agenti", ha affermato Hiniker. “Molte delle ricerche esistenti esaminano agenti progettati per insegnare una particolare abilità, come la matematica. È un po' diverso dalle abitudini che un bambino potrebbe acquisire casualmente parlando con una di queste cose". Uno studio in cinque partiLo studio in cinque parti ha coinvolto ogni bambino in visita al laboratorio con un genitore e un ricercatore. Nella prima parte i bambini hanno parlato con un semplice robot animato o cactus sullo schermo di un tablet, che mostrava anche il testo della conversazione. Un'altra parte dello studio ha coinvolto un ricercatore che non era presente nella stanza, ponendo domande a ciascun bambino. L'app li ha poi tradotti in una voce sinteti...
Continua a Leggere

Bigeye raccoglie 45 milioni di dollari

La piattaforma per l'osservabilità dei dati Bigeye ottiene $ 45 milioni  La piattaforma di ingegneria della qualità dei dati Bigeye ha annunciato oggi di aver chiuso un round di serie B da 45 milioni di dollari guidato da Coatue, con la partecipazione degli investitori esistenti Sequoia Capital e Costanoa Ventures. L'azienda prevede di destinare il finanziamento, che porta il totale raccolto a 66 milioni di dollari, a ridimensionare il proprio team e la piattaforma con un'attenzione particolare alla creazione di flussi di lavoro collaborativi per l'affidabilità dei dati. Le aziende spesso faticano a gestire vasti pool di dati archiviati su sistemi disparati on-premise e in cloud privati ​​e pubblici. Uno studio di PricewaterhouseCoopers e Iron Mountain ha rilevato che mentre il 75% dei leader aziendali ritiene di "sfruttare al meglio le proprie risorse informative", in realtà solo il 4% è pronto per il successo. Mentre la pandemia accelera la trasformazione digitale e la posta in gioco nella gestione dei dati aumenta, l'osservabilità dei dati e gli strumenti di monitoraggio sono diventati di moda. Secondo un rapporto Honeycomb del 2020, l'80% dei team all'interno delle organizzazioni sta praticando, o intende praticare, l'osservabilità entro due anni .Bigeye è stata fondata nel 2019 da Kyle Kirwan ed Egor Gryaznov, che hanno gestito il primo data warehouse di Uber per il reporting e l'analisi dei dati. La piattaforma con sede a San Francisco, California, aumenta i dati degli strumenti con strumenti di monitoraggio e rilevamento delle anomalie, consentendo alle parti interessate di conoscere lo stato di salute dei dati tramite API e dashboard visivi. "Con Bigeye, [abbiamo] creato una piattaforma di osservazione dei dati che consente a qualsiasi azienda di prevenire le interruzioni dei dati dei clienti, risparmiare costose ore di progettazione e creare maggiore fiducia nei dati", ha detto Kirwan a VentureBeat via e-mail. "Gli strumenti [che] abbiamo sviluppato hanno a...
Continua a Leggere

Roboflow raccoglie 20 milioni di dollari 

La piattaforma di sviluppo di visione artificiale Roboflow raccoglie 20 milioni di dollari  Roboflow , una startup con sede a Des Moines, in Iowa, che sviluppa strumenti per la creazione di modelli di visione artificiale , ha annunciato oggi di aver raccolto 20 milioni di dollari in un round di serie A guidato da Craft Ventures. Ciò porta il totale dell'azienda raccolto fino ad oggi a 22,2 milioni di dollari, e il CEO Joseph Nelson afferma che il denaro sarà destinato allo sviluppo del prodotto in corso e agli sforzi di assunzione. Secondo Grand View Research , nel 2020 si stima che l'industria globale della visione artificiale valga 11,32 miliardi di dollari . Ma mentre la tecnologia ha ovvie applicazioni aziendali - gli algoritmi di visione artificiale possono essere addestrati per eseguire attività come individuare fughe di gas, contare le pillole e monitorare i luoghi di lavoro per imporre il distanziamento sociale - le aziende possono incontrare ostacoli a sfruttarlo nella produzione. I team si trovano spesso ad affrontare la ricostruzione dell'infrastruttura software e l'acquisizione delle necessarie competenze di machine learning.  Fondato nel 2019, Roboflow nasce da un'idea di Brad Dwyer e Nelson, che vedono la visione artificiale come una tecnologia fondamentale che può consentire agli sviluppatori di risolvere i problemi derivanti dall'incapacità dei dispositivi di vedere il mondo che ci circonda. La piattaforma fornisce un framework per gli sviluppatori per integrare la visione artificiale nei loro prodotti, consentendo loro di caricare immagini e video per addestrare modelli di visione artificiale personalizzati o precostruiti. Sopra: l'interfaccia di sviluppo di Roboflow. Credito immagine: Roboflow“La computer vision è una di quelle tecnologie generazionali che, come il personal computer o lo stesso telefono cellulare, sarà adottata da ogni settore. Il software è limitato dalla sua capacità di ricevere informazioni strutturate come input e tale struttur...
Continua a Leggere

Intel Ponte Vecchio

Intel lancia il guanto di sfida per le GPU AMD e Nvidia La X e GPU dell'azienda per HPC sembra piuttosto buona, ma sarà abbastanza buona da raggiungere AMD e Nvidia?Intel ha adottato una strategia "Domain-Specific Architecture" adottata da John L. Hennessy, presidente di Alphabet ed ex presidente della Stanford University. Di conseguenza, l'azienda ha almeno uno di tutto: CPU, GPU, vari ASIC e FPGA. Sebbene questa possa sembrare una strategia per gettare tutto contro il muro e vedere cosa si attacca, offre un certo fascino nel plasmare l'epitome dell'informatica eterogenea. Tuttavia, questo approccio è ad alta intensità di capitale, richiede molta ingegneria e pone un onere significativo sullo sviluppatore del software. Parliamo di una di queste architetture che è una novità assoluta per Intel: le GPU ad alte prestazioni. Intel ha recentemente annunciato i dettagli sulla sua prossima GPU per data center, la X e HPC, nome in codice Ponte Vecchio (PVC). Intel ha audacemente insinuato che le prestazioni di picco della GPU PVC sarebbero circa il doppio di quelle della GPU più veloce di oggi, la Nvidia A100. PVC e Sapphire Rapids (lo Xeon multi-tile di nuova generazione) vengono utilizzati per costruire Aurora, il supercomputer Exascale dell'Argonne National Lab, nel 2022, quindi questa tecnologia dovrebbe finalmente essere dietro l'angolo. Ponte Vecchio X e GPU HPCIntel sta scommettendo su questa GPU per data center di prima generazione affinché HPC raggiunga finalmente Nvidia e AMD, sia per HPC (virgola mobile a 64 bit) che per intelligenza artificiale (interi a 8 e 16 bit e virgola mobile a 16 bit). Il dispositivo X e HPC è un pacchetto multi-tid e multi-processo con nuovi core GPU, memoria HBM2e, una nuova interconnessione Xe Link e PCIe Gen 5 implementato con oltre 100 miliardi di transistor. È quasi il doppio delle dimensioni del chip Nvidia A100 da 54 miliardi. A quelle dimensioni, il consumo di energia potrebbe essere un problema alle alte frequenze. Tuttavia, il...
Continua a Leggere

Il “Digital Pattern Innovator” SUITABLEE di Jean-Sebastien Siow e Jean-Jeremie Siow e l’AI l’intelligenza artificiale nel mondo della moda

Dall'invenzione del telaio, ai tessuti a temperatura controllata, ai camerini AR/VR, la tecnologia ha sempre avuto un ruolo nella moda. Oggi, l'industria della moda è un settore da 2 trilioni di dollari che impiega oltre 200 milioni di persone, quindi capire come i vestiti fanno sembrare e sentirsi bene le persone è un grande business. L'intelligenza artificiale è già stata utilizzata per progettare collezioni, analizzare le tendenze e prevedere cosa sarà popolare in futuro. Tenendo conto di fattori come la popolarità dei social media o i modelli meteorologici, l'intelligenza artificiale può aiutare a risparmiare tempo e denaro prevedendo quali vestiti potrebbero vendere molto prima che vengano prodotti. Non c'è motivo per i designer di indovinare con certezza quali colori o tessuti attireranno i consumatori perché invece un algoritmo può farlo. L'uso dell'intelligenza artificiale non è solo limitato alla produzione di abbigliamento; potrebbe anche svolgere un ruolo enorme negli stessi negozi al dettaglio. I negozi potrebbero utilizzare i dati di acquisti precedenti e sondaggi sui clienti combinati con l'intelligenza artificiale per creare esperienze di acquisto personalizzate per ogni cliente e persino prevedere quali nuovi prodotti potrebbero essere interessati ad acquistare. Anche fotografi come Javier Aranburu utilizzano l'intelligenza artificiale nel modo in cui catturano e modellano i vestiti nel modo più adatto ai clienti. Questa tecnologia è già utilizzata da Aranburu e rivenditori come Uniqlo che sono in grado di consigliare gli acquisti ai clienti in base alle loro scelte precedenti. https://youtu.be/8-vUucKAQTU   I consumatori non cercano solo un prodotto di cui hanno bisogno, ma anche qualcosa che si adatti sia al loro stile personale che alla forma del corpo. I marchi hanno risposto a questa domanda e ora impiegano stilisti virtuali che utilizzano algoritmi per creare look personalizzati per gli acquirenti in tempo reale. Inoltre, le aziende utilizzano ...
Continua a Leggere

Deep Vision raccoglie 35 milioni di dollari in un round di finanziamento di serie B

Il produttore di chip AI di intelligenza artificiale Deep Vision raccoglie 35 milioni di dollari  Il produttore di chip per processori di intelligenza artificiale (AI) Deep Vision ha annunciato di aver raccolto $ 35 milioni in un round di finanziamento di serie B. Deep Vision, Inc. ha sviluppato una suite di sviluppo software completa per applicazioni di edge computing.  Combinando i nuovi finanziamenti con i flussi di entrate esistenti, aiuterà l'azienda ad espandere le capacità del suo processore AI e degli strumenti software, oltre a supportare la sua crescente base di clienti.  Il finanziamento è stato guidato da Tiger Global, a cui si sono uniti gli investitori di serie A Exfinity Venture Partners, SiliconMotion e Western Digital. Anche gli ultimi tre stanno rientrando nell'ultimo round di finanziamenti.  Processore ARA-1Il processore AI brevettato di Deep Vision si chiama ARA-1 e offre alte prestazioni, potenza e prezzo per applicazioni basate su telecamere come smart retail, sistemi di monitoraggio dei conducenti, smart city, droni e automazione di fabbrica.  Il processore dell'azienda è noto soprattutto per la sua capacità di eseguire analisi video in tempo reale, ma fornisce anche funzionalità di elaborazione del linguaggio naturale (NLP) per applicazioni a comando vocale. Insieme alla sua tecnologia di elaborazione, l'azienda offre anche un set completo e flessibile di strumenti di sviluppo, che consentono ai clienti di convertire facilmente i loro modelli di rete neurale in grafici di calcolo altamente ottimizzati che possono essere implementati sul chip ARA-1. Gli investitoriRavi Annavajjhala è l'amministratore delegato di Deep Vision.  "Questo investimento è una clamorosa affermazione dei risultati tattici e della direzione strategica di Deep Vision, che stanno rapidamente guidando la nostra azienda in un'ampia varietà di applicazioni nei nostri mercati di riferimento chiave", ha affermato Ravi Annavajjhala. "Ora saremo in grado di rafforzare in modo si...
Continua a Leggere

Le carenze di Amazon Mechanical Turk

ELABORAZIONE DEL LINGUAGGIO NATURALELe carenze di Amazon Mechanical Turk possono minacciare i sistemi di generazione del linguaggio naturaleUn nuovo studio dell'Università del Massachusetts Amherst ha messo a confronto gli insegnanti di inglese contro i lavoratori in crowdsourcing di Amazon Mechanical Turk nel valutare l'output dei sistemi Natural Language Generation ( NLG ), concludendo che gli standard lassisti e il "gioco" di compiti apprezzati tra i lavoratori AMT potrebbero essere ostacolare lo sviluppo del settore. Il rapporto giunge a una serie di conclusioni schiaccianti sulla misura in cui l'outsourcing a basso costo "su scala industriale" di attività di valutazione NLG a tempo indeterminato potrebbe portare a risultati e algoritmi inferiori in questo settore. I ricercatori hanno anche compilato un elenco di 45 articoli sulla generazione di testo aperto in cui la ricerca aveva fatto uso di AMT e hanno scoperto che "la stragrande maggioranza" non è riuscita a riportare dettagli critici sull'uso del servizio crowd di Amazon, rendendo difficile la riproduzione. i risultati dei giornali. Sweat Shop LaborIl rapporto critica sia la natura sfruttatrice di Amazon Mechanical Turk, sia i progetti accademici (probabilmente limitati dal budget) che stanno dando ulteriore credito ad AMT utilizzando (e citandolo) come una risorsa di ricerca valida e coerente. Gli autori notano: "Anche se l'AMT è una soluzione conveniente e conveniente, osserviamo che un'elevata varianza tra i lavoratori, una scarsa calibrazione e compiti cognitivamente impegnativi possono portare i ricercatori a trarre conclusioni scientifiche fuorvianti (ad esempio, che il testo scritto dall'uomo è "peggio" del GPT-2 ).' Il rapporto incolpa il gioco piuttosto che i giocatori, con i ricercatori che osservano: "I lavoratori [della folla] sono spesso sottopagati per il loro lavoro, il che danneggia sia la qualità della ricerca, sia, cosa più importante, la capacità di questi lavoratori della folla di guada...
Continua a Leggere

Axelera raccoglie 12 milioni di dollari 

Axelera, che sta sviluppando un chip acceleratore AI, raccoglie 12 milioni di dollari   Axelera AI , una startup olandese di semiconduttori di intelligenza artificiale, è emersa oggi dallo stealth con $ 12 milioni di finanziamenti iniziali guidati da Bitfury , un fornitore di sicurezza e infrastruttura per la blockchain di Bitcoin. L'Innovation Industries Fund ha partecipato al round, che secondo l'azienda supporterà lo sviluppo di app AI ai margini. Edge AI , l'elaborazione di algoritmi di intelligenza artificiale su dispositivi come droni, segnaletica digitale, fotocamere e sensori, deriva dall'edge computing, che parte dalla stessa premessa: i dati vengono elaborati e gestiti negli endpoint dell'Internet delle cose. Edge AI è vantaggioso in settori come la vendita al dettaglio, la robotica e la produzione, dove può fornire una latenza inferiore rispetto all'invio di dati a server remoti ed evitare interruzioni e costi nel processo.  Incubato da Bitfury, Axelera afferma che sta sviluppando un chipset per accelerare l'intelligenza artificiale e gli algoritmi di apprendimento automatico ai margini. La startup afferma che il suo prodotto, che dovrebbe essere spedito a clienti selezionati nel 2022, raggiungerà una frazione del consumo energetico e del prezzo dell'hardware concorrente. "Il mercato dell'IA ai margini è agli inizi, con l'attuale leader di mercato che è Nvidia. Recentemente, nuove startup come Hailo , Mythic e Blaize stanno arrivando sul mercato con nuovi prodotti. Poiché molti prodotti sono stati rilasciati l'anno scorso, non ci sono ancora vincitori consolidati", ha detto a VentureBeat via e-mail l'amministratore delegato e cofondatore Fabrizio Del Maffeo, ex capo dell'intelligenza artificiale presso il gruppo Bitfury. "La nostra missione è fornire una piattaforma hardware e software "verde" (a basso consumo energetico) che consenta al settore di trarre il massimo vantaggio da ciò che l'intelligenza artificiale può offrire". Design innovativoSi prevede ...
Continua a Leggere

Google Digital twins per la logistica e la produzione   

Google lancia lo strumento "gemello digitale" per la logistica e la produzione  Google ha annunciato oggi Supply Chain Twin, una nuova soluzione Google Cloud che consente alle aziende di creare un gemello digitale, una rappresentazione della loro catena di fornitura fisica, organizzando i dati per ottenere una visione più completa di fornitori, inventari ed eventi come il meteo. Insieme a Supply Chain Twin c'è il modulo Supply Chain Pulse, che può essere utilizzato con Supply Chain Twin per fornire dashboard, analisi, avvisi e collaborazione in Google Workspace. La maggior parte delle aziende non ha visibilità delle proprie catene di approvvigionamento, con conseguente "esaurimento delle scorte" presso i rivenditori e l'invecchiamento delle scorte presso i produttori. Nel 2020, i soli articoli esauriti costano circa 1,14 trilioni di dollari . L'ultimo anno e mezzo di interruzioni della catena di approvvigionamento ha ulteriormente dimostrato la necessità di approfondimenti sulle operazioni per adeguare dinamicamente le rotte della flotta e i livelli di inventario.  Con Supply Chain Twin, le aziende possono riunire dati provenienti da più fonti consentendo la condivisione delle visualizzazioni dei set di dati con fornitori e partner. La soluzione supporta i sistemi aziendali aziendali che contengono le posizioni, i prodotti, gli ordini e i dati sulle operazioni di inventario di un'organizzazione, nonché i dati di fornitori e partner come i livelli di scorte e inventario e lo stato del trasporto dei materiali. Supply Chain Twin attinge anche da fonti pubbliche di dati contestuali come meteo, rischio e sostenibilità. Gli approcci alla simulazione dei "gemelli digitali" hanno guadagnato popolarità in altri ambiti. Ad esempio, SenSat , con sede a Londra, aiuta i clienti dei settori edile, minerario, energetico e di altri settori a creare modelli di luoghi per i progetti su cui stanno lavorando. GE offre una tecnologia che consente alle aziende di modellare gemelli digita...
Continua a Leggere

I sensori Lidar usati nei gemelli digitali e nel metaverso 

I sensori Lidar passano dalle auto a guida autonoma ai gemelli digitali e al metaverso  La tecnologia Lidar ha attirato l'attenzione di una serie di tecnologie avanzate che promettono di creare le auto a guida autonoma di domani. Ma i sensori lidar sono anche importanti negli sforzi per produrre gemelli digitali e casi d'uso del metaverso. Un aspetto fondamentale dei gemelli digitali risiede nell'aggiornamento dei modelli del mondo reale con alta fedeltà e ad alta frequenza. Lidar integra tecnologie come le fotocamere stereoscopiche per l'acquisizione di dati 3D dal mondo fisico che potrebbero essere convogliati in gemelli digitali o applicazioni metaverse.  La tecnologia core lidar esiste da quasi 50 anni, ma fino a poco tempo fa era costosa da costruire e complicata da inserire in nuovi flussi di lavoro. Tutto ciò sta iniziando a cambiare con l'avvento di nuovi approcci, implementazioni più economiche e flussi di lavoro di dati lidar più flessibili. I sensori Lidar si mostrano promettenti nelle auto autonome e nei relativi sistemi perché misurano la distanza dagli oggetti a velocità incredibili e con alta precisione. Funzionano in modo molto simile al radar, utilizzando la luce anziché le onde radio: il segnale lidar viene riflesso dagli oggetti e viene quindi misurata la luce che ritorna. Il lidar tradizionale misura il tempo di volo dei segnali, ma le tecniche più recenti utilizzano altre proprietà della luce per ridurre i costi, migliorare la precisione o accelerare i tempi di reazione. Il caso aziendale per i sensori lidarIl prezzo di questi sistemi è sceso da decine di migliaia di dollari alcuni anni fa a decine di dollari per sensori prodotti in serie incorporati in tablet e smartphone come l'iPhone 12 Pro. Apple ha taciuto sulla sua fonte lidar, ma uno smontaggio del primo iPad con la tecnologia ha trovato uno scanner laser di Lumentum e un sensore di Sony combinati in un sistema lidar. Fattori di forma lidar più piccoli consentiranno alla cattura lidar ter...
Continua a Leggere