Home / Articles posted byihal

Author: ihal

L’intelligenza artificiale generata dalla combinazione della luce con i superconduttori

I ricercatori potrebbero ottenere un'intelligenza artificiale generale combinando luce e superconduttori I ricercatori del National Institute of Standards and Technology stanno proponendo un nuovo approccio all'intelligenza artificiale (AI) su larga scala facendo affidamento sull'integrazione di componenti fotoniche con l'elettronica superconduttrice. I precedenti approcci per ottenere l'intelligenza generale nei sistemi di intelligenza artificiale si sono concentrati sulla microelettronica del silicio convenzionale abbinata alla luce. Tuttavia, ci sono grossi ostacoli a questo approccio. Ci sono molte limitazioni fisiche e pratiche con la fabbricazione di chip di silicio con elementi elettronici e fotonici. L'intelligenza generale è "la capacità di assimilare la conoscenza attraverso categorie di contenuti e di utilizzare tali informazioni per formare una rappresentazione coerente del mondo". Implica l'integrazione di varie fonti di informazione e deve sfociare in un modello del mondo coerente e adattivo. La progettazione e la costruzione dell'hardware per l'intelligenza generale richiedono l'applicazione dei principi delle neuroscienze e l'integrazione su larga scala. Il nuovo approccio è stato descritto in dettaglio in Applied Physics Letters di AIP Publishing. Jeffrey Shainline è l'autore della ricerca. "Sosteniamo che operando a bassa temperatura e utilizzando circuiti elettronici superconduttori, rilevatori a fotone singolo e sorgenti luminose al silicio, apriremo una strada verso una ricca funzionalità computazionale e una fabbricazione scalabile", ha detto Shainline. Sistemi cognitivi artificiali scalabili e funzionaliSecondo i ricercatori e il loro nuovo approccio, l'abbinamento della luce per la comunicazione con circuiti elettronici complessi per il calcolo potrebbe portare a sistemi cognitivi artificiali che sono molto più scalabili e funzionali rispetto agli approcci tradizionali che si basano solo sulla luce o sull'elettronica. ...
Continua a Leggere

La tecnologia bio-ispirata dall’orecchio di pipistrello

Rolf Mueller, professore di ingegneria meccanica presso Virginia Tech, ha tratto ispirazione dai pipistrelli per progettare e sviluppare una nuova tecnologia bio-ispirata in grado di determinare la posizione di origine di un suono. A differenza degli approcci precedenti, che sono spesso basati sull'orecchio umano, Mueller ha guardato l'orecchio di un pipistrello per ottenere la prima nuova visione dell'identificazione della posizione del suono in 50 anni. "Ho ammirato a lungo i pipistrelli per la loro straordinaria capacità di navigare in ambienti naturali complessi basati sugli ultrasuoni e sospettavo che l'insolita mobilità delle orecchie dell'animale potesse avere qualcosa a che fare con questo", ha detto. Pipistrello contro orecchio umanoI pipistrelli si affidano all'ecolocalizzazione per navigare durante il volo e consente loro di determinare la distanza di un oggetto ascoltando gli echi mentre emette suoni. La bocca o il naso del pipistrello emettono chiamate ultrasoniche, che rimbalzano sull'ambiente e ritornano come un'eco. Chiamati effetto Doppler, possono anche estrarre informazioni dai suoni ambientali. Questo effetto è diverso quando si tratta degli esseri umani, con le nostre due orecchie che ci consentono di trovare la posizione attraverso i dati sonori che arrivano al cervello per l'elaborazione. Avendo due ricevitori, possiamo rilevare la direzione dei suoni quando contengono una sola frequenza. https://youtu.be/buFM5KkAnEo Nel 1967, una scoperta ha dimostrato che un singolo orecchio umano può rilevare la posizione dei suoni se ci sono frequenze diverse. L'orecchio umano è stato l'ispirazione per vari approcci alla rilevazione della posizione del suono in passato, che si sono basati su ricevitori di pressione come i microfoni e la capacità di raccogliere più frequenze. Mueller vide che c'erano maggiori possibilità con le orecchie di pipistrello, che sono molto più versatili delle orecchie umane. Il suo team ha deciso di u...
Continua a Leggere

Neural Lumigraph Rendering esseri umani con intelligenza artificiale in tempo reale

Verso esseri umani con intelligenza artificiale in tempo reale con rendering del lumigrafo neurale Rendering lumigrafo neuraleNonostante l'attuale ondata di interesse per Neural Radiance Fields ( NeRF ), una tecnologia in grado di creare ambienti e oggetti 3D generati dall'intelligenza artificiale, questo nuovo approccio alla tecnologia di sintesi delle immagini richiede ancora molto tempo di addestramento e manca di un'implementazione che lo consenta interfacce in tempo reale e altamente reattive. Tuttavia, una collaborazione tra alcuni nomi di spicco dell'industria e del mondo accademico offre un nuovo approccio a questa sfida (genericamente nota come Novel View Synthesis o NVS). Il documento di ricerca , intitolato Neural Lumigraph Rendering , afferma un miglioramento dello stato dell'arte di circa due ordini di grandezza, che rappresenta diversi passaggi verso il rendering CG in tempo reale tramite pipeline di apprendimento automatico . Sebbene i crediti per il documento citino solo la Stanford University e la società di tecnologia di visualizzazione olografica Raxium (attualmente operante in modalità invisibile ), i contributori includono un principale architetto di apprendimento automatico di Google, uno scienziato informatico di Adobe e il CTO di StoryFile (che ha fatto notizia di recente con una versione AI di William Shatner). Per quanto riguarda il recente blitz pubblicitario di Shatner, StoryFile sembra impiegare NLR nel suo nuovo processo per la creazione di entità interattive generate dall'intelligenza artificiale basate sulle caratteristiche e le narrazioni delle singole persone. William Shatner per preservare la sua vita attraverso l'intelligenza artificiale https://youtu.be/AEj2K4YzwiU StoryFile prevede l'uso di questa tecnologia nelle esposizioni dei musei, nelle narrazioni interattive online, nei display olografici, nella realtà aumentata (AR) e nella documentazione del patrimonio - e sembra anche osservare potenziali nuove ...
Continua a Leggere

PURE da un solo passo l’AI l’intelligenza artificiale riesce ad identificarci

L'intelligenza artificiale può identificare una persona da un unico passoUna nuova iniziativa di ricerca ha prodotto un sistema a basso costo in grado di identificare una persona in base al suono dei suoi passi, già da un solo passo. Nel documento Passive mUlti-peRson idEntification via Deep Footstep Separation and Recognition (PURE), una collaborazione tra ricercatori della Nanyang Technological University e dell'Università del Kentucky, tra gli altri, i tassi di identificazione sono stati stabiliti fino al 90%, da campioni audio che sono estremamente breve. L'architettura di PURE si basa sui dati di una serie di microfoni di base, con l'acquisizione dell'audio grezzo annullata tramite sottrazione spettrale di fondo . Quando il rapporto segnale / rumore è alto, inclusa la conversazione che si verifica al momento dell'acquisizione, viene attivato un algoritmo di separazione della sorgente per eseguire l'estrazione discreta dei passi. Architettura di sistema PURA L'audio del passo viene chiarito e analizzato tramite l' adattamento antagonistico del dominio , con il framework che comprende un estrattore di caratteristiche, un predittore di identità e un discriminatore di dominio. Rete di identificazione Analisi del cammino PURE Hardware per PUREL'apparecchiatura utilizzata per PURE è un array di microfoni incorporato in un rig personalizzato basato sul Raspberry Pi 4. Hardware PURE per il riconoscimento dell'andatura I microfoni catturano l'audio alla massima velocità disponibile per i segnali "portati dalla struttura" (i piedi che toccano il suolo), poiché questi dati sono di durata estremamente breve e devono essere il più dettagliati possibile. Tuttavia, i passi trasportati dall'aria (i piedi sonori formano l'arco verso il successivo contatto con il suolo) vengono sottocampionati a 16 kHz per risparmiare la capacità di elaborazione locale per i passaggi portati dalla struttura. I ricercatori hanno sintetizzato un set di dati di addestram...
Continua a Leggere

I Robot Danzanti che insegnano a loro stessi a camminare attraverso l’apprendimento per rinforzo

Il robot insegna a se stesso a camminare attraverso l'apprendimento per rinforzo Mentre Boston Dynamics e i robot danzanti di solito ricevono la maggior parte dell'attenzione, ci sono alcuni importanti sviluppi in atto dietro le quinte che non ricevono una copertura sufficiente. Uno di questi sviluppi proviene da un laboratorio di Berkeley, dove un robot di nome Cassie è stato in grado di insegnare a se stesso a camminare attraverso l' apprendimento per rinforzo . Dopo tentativi ed errori, la coppia di gambe robotiche ha imparato a navigare in un ambiente simulato prima di essere messa alla prova nel mondo reale. Inizialmente, il robot ha dimostrato la capacità di camminare in tutte le direzioni, camminare mentre si accovaccia, riposizionarsi quando viene spinto fuori equilibrio e adattarsi a diversi tipi di superfici. Mentre i robot come quelli di Boston Dynamics sono estremamente impressionanti e stupiscono quasi tutti coloro che li guardano, ci sono alcuni fattori chiave. In particolare, questi robot sono programmati a mano e coreografati per ottenere il risultato, ma questo non è il metodo preferito nelle situazioni del mondo reale. Al di fuori del laboratorio, i robot devono essere robusti, resilienti, flessibili e molto altro ancora. Inoltre, devono essere in grado di affrontare e gestire situazioni impreviste, il che può essere fatto solo consentendo loro di gestire tali situazioni da soli. https://youtu.be/goxCjGPQH7U Zhongyu Li faceva parte del team che lavorava su Cassie presso l'Università di Berkeley. "Questi video possono indurre alcune persone a credere che questo sia un problema risolto e facile", dice Li. "Ma abbiamo ancora molta strada da fare per far funzionare e vivere in modo affidabile i robot umanoidi in ambienti umani". Apprendimento per rinforzo per un controllo della locomozione parametrizzato robusto di robot bipedi Insegnamento rafforzativoPer creare un tale robot, il team di Berkeley si è basato sull'apprendi...
Continua a Leggere

Set di dati sintetici da Unity per ridurre i tempi e i budget di formazione dell’Intelligenza artificiale

Unity lancia set di dati sintetici per ridurre i tempi e i budget di formazione dell'IAUnity , una piattaforma leader per i contenuti 3D in tempo reale (RT3D), ha annunciato il rilascio dei set di dati di Unity Computer Vision . Questi set di dati potrebbero avere un impatto su vari settori, in particolare produzione, vendita al dettaglio e sicurezza. Hanno lo scopo di ridurre i costi di sviluppo di applicazioni di visione artificiale fornendo anche un modo per addestrare i sistemi di intelligenza artificiale più velocemente. A seguito di rigidi problemi di privacy e regolamentazione, i set di dati personalizzati possono ora essere acquistati dai fornitori di soluzioni di visione artificiale per addestrare i sistemi di IA. Importanza dei dati sinteticiI dati sintetici vengono generati quando i dati esistenti non soddisfano le condizioni o le esigenze specifiche di un sistema di intelligenza artificiale. Alcuni casi di esempio includono quando i requisiti di privacy limitano i dati disponibili o come possono essere utilizzati. https://youtu.be/Cz7KWqAgZAw I dati sintetici vengono spesso utilizzati per testare un prodotto pre-rilasciato poiché di solito non ci sono dati esistenti o non sono ancora disponibili. Questo tipo di dati è fondamentale anche per gli algoritmi di apprendimento automatico e viene spesso utilizzato in tecnologie come i veicoli a guida autonoma, poiché ottenere dati effettivi è costoso. Unity sta tentando di rompere questa barriera fornendo un maggiore accesso a set di dati sintetici di alta qualità con i set di dati di Unity Computer Vision. Il dottor Danny Lange è Vicepresidente senior dell'intelligenza artificiale e dell'apprendimento automatico. "Creando una versione sintetica di set di dati che rispecchiano le regole sulla privacy convalidate e riflettono accuratamente i dati del mondo reale, permettiamo a questi set di dati rivoluzionari di entrare nelle mani di più innovatori", afferma Lange. "In sostanza, questi...
Continua a Leggere

Phrasee lancia l’ottimizzazione della lingua in tempo reale basata sul deep learning

Phrasee , leader nell'ottimizzazione del linguaggio del marchio, ha annunciato oggi Phrasee X, la prima tecnologia che consente ai professionisti del marketing di ottimizzare automaticamente il linguaggio in tempo reale. L'introduzione di Phrasee X fa entrare Phrasee nel mercato della customer experience (CX) da $ 8,5 miliardi come l'unica tecnologia che consente ai marchi di rispondere ai clienti in modo più agile e personale, testando e aggiornando continuamente il loro linguaggio di marketing in ogni fase del percorso del cliente. Phrasee X utilizza tecniche avanzate di apprendimento automatico per ottimizzare il linguaggio del marchio in tempo reale, con un solo clic. Si basa sulla generazione del linguaggio naturale e sulle capacità di apprendimento profondo di Phrasee per migliorare la sua piattaforma SaaS basata sull'intelligenza artificiale. È un "punto di svolta" e consente ai marchi di generare, ottimizzare, automatizzare e analizzare il linguaggio nella propria voce di marca. Marchi globali tra cui Domino's, eBay, Groupon, FARFETCH e Walgreens si affidano alla piattaforma di Phrasee per generare il linguaggio del marchio. Con lo sviluppo di Phrasee X, saranno in grado di testare più messaggi contemporaneamente per identificare il linguaggio con le migliori prestazioni, migliorando la copia con ogni invio per fornire il contenuto giusto negli ambienti digitali - ogni volta - per aumentare il coinvolgimento e i tassi di conversione. La tecnologia è stata creata per integrarsi perfettamente con i più grandi attori della tecnologia di marketing CX, tra cui Adobe e Salesforce. Phrasee X alimenterà i prodotti esistenti e la roadmap futura di Phrasee, che consentiranno alle aziende di attrarre, coinvolgere, reagire e convertire i clienti con un linguaggio ottimizzato. "Il nostro rapporto con Phrasee va sempre più rafforzandosi", ha affermato Marissa Contreras, Direttore, Retention Marketing & Marketing Operations, Sephora. "La tecnologia ...
Continua a Leggere

L’intelligenza artificiale stima la vera povertà globale grazie al ML machine learning

Stima del vero stato di povertà globale con il machine learningMappa della povertà attraverso l'apprendimento automaticoUna collaborazione di UoC Berkeley, Stanford University e Facebook offre un quadro più approfondito e granulare dell'attuale stato di povertà in e attraverso le nazioni, attraverso l'uso dell'apprendimento automatico . La ricerca , intitolata Micro-Estimates of Wealth for all Low-and Middle-Income Countries , è accompagnata da un sito web beta che consente agli utenti di esplorare in modo interattivo lo stato economico assoluto e relativo di aree a grana fine e sacche di povertà a basso e medio paesi a reddito. Mappa interattiva della povertà nel mondo attraverso l'apprendimento automatico Il framework incorpora dati da immagini satellitari, mappe topografiche, reti di telefonia mobile e dati aggregati anonimi da Facebook, ed è verificato in base a ampi sondaggi faccia a faccia, allo scopo di riportare disparità di ricchezza relativa in una regione, piuttosto che stime assolute di reddito . Il sistema è stato adottato dal governo della Nigeria come base per la gestione dei programmi di protezione sociale e funziona in tandem con il quadro esistente della Banca Mondiale, il National Social Safety Nets Project ( NASSP ). A febbraio ai primi beneficiari del regime è stato versato un trasferimento in contanti di 5000 naira nigeriane, una prestazione pagabile fino a sei mesi, fino al raggiungimento della soglia di un milione di naira. Il documento afferma che la povertà dei dati fornisce un notevole contributo alla distribuzione errata degli aiuti in paesi con risorse minime per la raccolta di dati o infrastrutture limitate, e che anche un fattore di segnalazione errata politicamente motivato (un problema non limitato ai paesi a basso reddito) . Registrazione dei "poveri non segnalati"Le simulazioni dei ricercatori sui dati hanno dimostrato che, in base alle normative esistenti per l'allocazione delle risorse di aiuto, la distribu...
Continua a Leggere

SafeGuard Cyber ​​raccoglie 45 milioni di dollari

SafeGuard Cyber ​​raccoglie 45 milioni di dollari per combattere i rischi per la sicurezza informatica utilizzando l'intelligenza artificiale SafeGuard Cyber , una piattaforma cloud progettata per proteggere le risorse dalle minacce alla sicurezza informatica e dai fattori di rischio, ha annunciato oggi di aver raccolto 45 milioni di dollari in un mix di azioni e debiti. Ciò porta il totale raccolto di SafeGuard a oltre $ 69 milioni e verrà utilizzato per espandere le proprie capacità aziendali e tecnologiche, afferma la società. In un sondaggio Deloitte del 2017 , solo il 42% degli intervistati considerava le proprie istituzioni estremamente o molto efficaci nella gestione del rischio per la sicurezza informatica. La pandemia non ha certo fatto nulla per alleviare queste preoccupazioni. Nonostante l'aumento degli investimenti nella sicurezza IT effettuati dalle aziende nel 2020 per affrontare le sfide dell'IT distribuito e del lavoro da casa, quasi l'80% dei lavoratori IT senior e dei leader della sicurezza IT ritiene che le proprie organizzazioni non dispongano di difese sufficienti contro gli attacchi informatici, secondo IDG. SafeGuard Cyber, fondata nel 2014, sviluppa prodotti che identificano i rischi nei canali di comunicazione come social media, app di chat e piattaforme di collaborazione, come Slack, LinkedIn e WhatsApp. SafeGuard Cyber ​​aiuta anche le aziende ad agire e afferma di poter proteggere individui di alto profilo o mirati da furti di account, spearphishing, contenuti dannosi, minacce di violenza e disinformazione, nonché connessioni con cattivi attori. Inoltre, SafeGuard afferma di poter proteggere gli account aziendali e dei dipendenti dalle minacce in entrata, inclusa la rappresentazione del marchio, fornendo al contempo visibilità sui potenziali vettori di minacce. "L'ingegneria sociale è stata tradizionalmente svolta all'interno delle e-mail, ma da allora si è evoluta per incorporare un approccio più mirato e di attacco soft att...
Continua a Leggere

Nvidia il sistema su chip Drive Atlan per veicoli autonomi

Al GTC 2021 , Nividia ha presentato questa mattina Drive Atlan, un sistema su chip abilitato all'intelligenza artificiale per veicoli autonomi che prenderà di mira i modelli 2025 delle case automobilistiche. In grado di fornire poco più di 1.000 trilioni di operazioni al secondo (TOP), Atlan include l'architettura GPU di nuova generazione di Nvidia, core CPU ARM e acceleratori di deep learning e visione artificiale. Un rapporto del MIT stima che i veicoli veramente autonomi potrebbero non scendere in strada per un decennio. Tuttavia, alcuni esperti prevedono che la pandemia accelererà l'adozione di tecnologie di trasporto autonomo. Nonostante necessitino di disinfezione, le auto senza conducente possono potenzialmente ridurre al minimo il rischio di diffusione di malattie. Allied Market Research prevede che il mercato globale dei veicoli autonomi sarà valutato a $ 556,67 miliardi entro il 2026. Atlan, che integra un'unità di elaborazione dati Nvidia BlueField per funzioni di rete, archiviazione e sicurezza, è da 4 a 33 volte più potente in termini di elaborazione degli altri chip Nvidia focalizzati sulla guida autonoma, Drive Xavier e Drive Orin . Xavier può raggiungere fino a 30 TOP, mentre Orin arriva a 254. Il CEO di Nvidia Jensen Huang afferma che Atlan è progettato per gestire il gran numero di applicazioni AI che vengono eseguite contemporaneamente su veicoli senza conducente. "Il nostro nuovo Atlan è davvero una meraviglia tecnica, fondendo tutti i punti di forza di Nvidia nei data center AI, auto, robotica, sicurezza e sicurezza BlueField per fornire flotte sicure a guida autonoma", ha detto Huang in un comunicato stampa. “L'industria dei trasporti ha bisogno di una piattaforma informatica su cui poter fare affidamento per decenni. L'investimento nel software è troppo immenso per essere ripetuto per ogni auto ". Nvidia ha anche annunciato che amplierà la sua partnership con Volvo per utilizzare Orin nei prossimi modelli Volvo. La prima ve...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi