Home / Archive by category "Hardware AI"

Hardware AI

Untether AI raccoglie 125 milioni di dollari

Untether AI ottiene 125 milioni di dollari per i chip di accelerazione AI  Untether AI , una startup che sviluppa chip personalizzati per carichi di lavoro di inferenza AI, ha annunciato oggi di aver raccolto 125 milioni di dollari da Tracker Capital Management e Intel Capital. Il round, che è stato sovrascritto e ha incluso la partecipazione del Canada Pension Plan Investment Board e di Radical Ventures, sarà utilizzato per supportare l'espansione dei clienti. Il maggiore utilizzo dell'intelligenza artificiale, insieme ai requisiti hardware della tecnologia, rappresenta una sfida per le architetture di elaborazione dei data center tradizionali. Untether è tra le aziende che propongono il calcolo at-memory o near-memory come soluzione. In sostanza, questo tipo di hardware costruisce memoria e logica in un pacchetto di circuiti integrati. In un'architettura di elaborazione near-memory "2.5D", i die del processore sono impilati su un interposer che collega i componenti e la scheda, incorporando memoria ad alta velocità per rafforzare la larghezza di banda del chip.  Fondata nel 2018 dal CTO Martin Snelgrove, Darrick Wiebe e Raymond Chik, Untether afferma di continuare a fare progressi verso la produzione di massa del suo chip RunA1200, che vanta efficienza con robustezza computazionale. Snelgrove e Wiebe affermano che i dati nella loro architettura si spostano fino a 1.000 volte più velocemente del normale, il che sarebbe un vantaggio per l'apprendimento automatico, dove i set di dati sono spesso decine o centinaia di gigabyte di dimensioni. Architettura ad alta velocitàOgni chip RunA1200 contiene un processore RISC-V e 511 banchi di memoria, con i banchi che comprendono 385 KB di SRAM e un array 2D di 512 elementi di elaborazione (PE). Ci sono 261.632 PE per chip, con 200 MB di memoria, e RunA1200 offre 502 trilioni di operazioni al secondo (TOPS) di potenza di elaborazione. Uno dei primi prodotti commerciali di Untether è TsunAImi, una scheda PCIe contenente quattro...
Continua a Leggere

Cerebrus di Cadence Design Systems il machine learning nella progettazione di chip 

Cadence Design Systems lancia il machine learning Cerebrus per la progettazione di chip  Era solo questione di tempo prima che il machine learning trasformasse il mondo della progettazione dei chip. Cadence Design Systems , che crea strumenti di progettazione utilizzati dagli ingegneri per creare chip, lo sta utilizzando per rendere gli ingegneri di chip molto più produttivi con il suo strumento di apprendimento automatico Cerebrus Intelligent Chip Explorer . L'automazione della progettazione dei chip (automazione della progettazione elettronica, o EDA) si è evoluta per decenni, con una gerarchia di strumenti che operano a diversi livelli di astrazione. Cadence è nata nel 1988 con l'obiettivo di utilizzare i vantaggi dell'informatica per progettare la prossima generazione di chip di elaborazione. Ma gli ingegneri hanno trovato sempre più difficile stare al passo con gli intricati progetti di chip che hanno miliardi di interruttori on-off, doppiati transistor. Il processo di progettazione è diventato come cercare di tenere traccia di tutte le formiche del pianeta.  Con l'apprendimento automatico, Cadence Design Systems è stata in grado di aggiungere un ulteriore livello di automazione agli strumenti di automazione della progettazione che gli ingegneri utilizzano da molti anni, ha affermato Kam Kittrell, direttore senior del gruppo di gestione dei prodotti nel Digital & Signoff Group di Cadence. in un'intervista con VentureBeat. I risultati sono davvero fantastici. Con l'apprendimento automatico, l'azienda può ottenere una produttività 10 volte migliore per ingegnere utilizzando gli strumenti di progettazione. E possono ottenere miglioramenti del 20% in più di potenza, prestazioni e area del chip. Questo è un enorme guadagno che potrebbe in definitiva rendere ogni chip più conveniente, affidabile e più veloce di quanto sarebbe stato altrimenti, ha detto Kittrell. Ciò potrebbe significare miliardi di dollari risparmiati. Questo tipo di aumento della produttività è ...
Continua a Leggere

Computer quantistici speciali con 256 Qubit da un team di fisici dell’Harvard-MIT Center

I fisici sviluppano computer quantistici speciali con 256 Qubit   In quello che è un importante progresso nell'informatica quantistica, un team di fisici dell'Harvard-MIT Center for Ultracold Atoms e altre università hanno creato un tipo speciale di computer quantistico. Questo sistema è chiamato simulatore quantistico programmabile e può funzionare con 256 bit quantistici o "qubit". I qubit sono fondamentali per il funzionamento dei computer quantistici e sono la fonte della loro potenza di elaborazione. Il nuovo sviluppo ci avvicina al raggiungimento di macchine quantistiche su larga scala, che potrebbero essere utilizzate per ottenere informazioni approfondite su processi quantistici complessi. Potrebbero anche avere importanti implicazioni in campi come la scienza dei materiali, le tecnologie della comunicazione, la finanza e vari altri che attualmente stanno affrontando ostacoli nella ricerca. La ricerca è stata pubblicata il 9 luglio su Nature .  Spingendo il campo in avantiMikhail Lukin è il professore di fisica George Vasmer Leverett e co-direttore dell'Harvard Quantum Initiative. È anche uno degli autori senior dello studio. "Questo sposta il campo in un nuovo dominio in cui nessuno è mai stato finora", ha affermato Lukin. "Stiamo entrando in una parte completamente nuova del mondo quantistico". Sepehr Ebadi è uno studente di fisica presso la Graduate School of Arts and Sciences e l'autore principale dello studio.  Secondo Ebadi, le maggiori caratteristiche del sistema sono le sue dimensioni e programmabilità, che lo rendono uno dei migliori sistemi in circolazione. Può sfruttare le proprietà della materia su scale estremamente ridotte, che gli consentono di aumentare la potenza di elaborazione. Un aumento dei qubit può aiutare il sistema a memorizzare ed elaborare esponenzialmente più informazioni rispetto ai bit classici, su cui si basano i computer standard. "Il numero di stati quantistici possibili con solo 256 qubit supera il numero di atomi nel sistem...
Continua a Leggere

Edge Impulse punta a portare funzionalità di intelligenza artificiale ai microcontrollori che alimentano i dispositivi elettronici di consumo

Edge Impulse combina AutoML e TinyML per rendere l'IA onnipresente Edge Impulse, una startup con sede a San Jose, mira a portare funzionalità di intelligenza artificiale ai microcontrollori che alimentano i dispositivi elettronici di consumo. La società ha creato una piattaforma basata su cloud per consentire agli sviluppatori di creare modelli di intelligenza artificiale destinati ai microcontrollori.     AutoML si concentra su due aspetti critici dell'apprendimento automatico: acquisizione e previsione dei dati. La piattaforma AutoML astrae tutti i passaggi che si verificano tra queste due fasi. In sostanza, gli sviluppatori portano il proprio set di dati, identificano le etichette e premono un pulsante per generare un modello accuratamente addestrato pronto per la previsione. MSVTinyML è una tecnica che ottimizza i modelli di machine learning per dispositivi embedded con risorse limitate. Questi dispositivi integrati funzionano a batterie con potenza di elaborazione e disponibilità di memoria limitate. I modelli ML tradizionali non possono essere distribuiti su questi dispositivi. Con TinyML, i modelli vengono convertiti e ottimizzati per funzionare sull'unità più piccola di un dispositivo elettronico: il microcontrollore.  Il targeting dei microcontrollori per l'esecuzione dell'IA è un processo complesso e dispendioso in termini di tempo. Gli sviluppatori devono acquisire dati da vari sensori collegati al microcontrollore. Quindi, devono pre-elaborare e normalizzare il set di dati prima di inviarlo a una rete neurale complessa. Le reti neurali artificiali necessitano di un'enorme potenza di calcolo fornita da CPU e GPU di fascia alta per addestrare i modelli. Una volta che il modello è stato addestrato e valutato per l'accuratezza e la precisione, viene convertito e compattato per essere eseguito in dispositivi basati su microcontrollore.  Edge Impulse ha gestito l'intera pipeline dall'acquisizione dei dati alla distribuzione del modello. Dispone di strumenti ...
Continua a Leggere

Xilinx Versal HBM 

Xilinx alza la posta nell'elaborazione ad alte prestazioni con Versal HBM  A differenza di molte aziende in fase di acquisizione (in questo caso da AMD), Xilinx continua a lanciare nuovi prodotti a un ritmo frenetico. L'azienda ha appena annunciato le ultime novità nella sua Adaptive Compute Acceleration Platform, o ACAP, per applicazioni su scala data center ad alte prestazioni. Il nuovo Versal HBM combina tutte le funzionalità programmabili e le interfacce di rete ad alta velocità della sua piattaforma Versal con la memoria DRAM ad alta larghezza di banda (nello specifico HBM2e) per alleviare i colli di bottiglia associati all'elaborazione di grandi quantità di dati. Una delle maggiori sfide che l'industria tecnologica deve affrontare è la rapida crescita dei dati. Contenuti di intrattenimento ad alta definizione, giochi eSports, social network basati su video, dispositivi connessi/Internet delle cose, modelli scientifici, sequenziamento del DNA e intelligenza artificiale sono solo alcune delle applicazioni che stanno alimentando la creazione e l'uso di quantità di dati. L'elaborazione di questi dati, soprattutto in modo tempestivo, è una sfida enorme.     Per le prestazioni di calcolo, l'HBM Versal combina un mix eterogeneo di core CPU dual Arm Cortex-A72 e core CPU dual-Cortex-R5F in tempo reale con estensioni in virgola mobile, insieme ai motori FPGA adattabili Versal dell'azienda e Digital Signal Processor (DSP ) motore. Tutti questi motori di elaborazione sono collegati tramite una rete programmabile su chip. Per alimentare tutti questi motori sono necessari I/O ad alta velocità e un'elevata larghezza di banda di memoria. Di conseguenza, Xilinx ha integrato i più recenti PCIe Gen5, SerDes da 112 Gbps, 600 Gbps Ethernet e core Interlaken, motori crittografici da 400 Gbps disponibili nei prodotti Versal Premium con 32 GB di memoria HBM2e con una larghezza di banda di memoria di 820 GB/s. Potenziali applicazioni ad alto rendimento e set di dati di grandi dimensi...
Continua a Leggere

La visione di Qualcomm per il futuro della Intelligenza artificiale AI

 L'intelligenza artificiale di Mobile Chip Leader inizia nel mobile e cresce fino al cloudL'azienda acquisisce asset da Twenty Billion Neurons GmbH per rafforzare il suo team di intelligenza artificiale. Qualcomm Technologies (QTI) sta organizzando una serie di webinar intitolati "Il futuro di..." e l'edizione più recente riguarda l'intelligenza artificiale. In questa vivace sessione , ho ospitato una conversazione con Ziad Asghar, QTI VP of Product Management, Alex Katouzian, QTI SVP e GM Mobile Compute and Infrastructure, e Clément Delangue, co-fondatore e CEO della società di modelli AI open source, Hugging Face , Inc. Ho anche scritto una breve nota di ricerca sulla strategia AI dell'azienda, che può essere trovata qui su Cambrian-AI, in cui delineiamo alcuni casi d'uso di AI impressionanti. Qualcomm Technologies potenzia le capacità di intelligenza artificiale.Qualcomm ritiene che l'intelligenza artificiale si stia evolvendo in modo esponenziale grazie a miliardi di dispositivi mobili intelligenti, connessi tramite 5G al cloud, alimentati da un vivace ecosistema di sviluppatori di applicazioni armati di modelli di intelligenza artificiale open source. Altre aziende di semiconduttori potrebbero dire qualcosa di simile, ma nel caso di Qualcomm inizia unicamente con il mobile. L'ultimo Snapdragon 888 ha un motore AI di sesta generazione abbastanza potente da elaborare modelli AI significativi sul telefono, consentendo applicazioni come l'elaborazione vocale sul dispositivo e persino la traduzione della lingua parlata in tempo reale. Qualcomm integra i dispositivi perimetrali con l'elaborazione cloud utilizzando Cloud AI100 , che ha recentemente dimostrato l'efficienza delle prestazioni leader sui benchmark MLPerf V1.0. Qualcomm chiama questo approccio Distributed Intelligence. Per aggiungere più talento e proprietà intellettuale al laboratorio di ricerca sull'intelligenza artificiale di Qualcomm, la società ha annunciato oggi di aver acquisito un team da Twenty Bi...
Continua a Leggere

Uno sguardo all’interno del Quantum AI Campus di Google

Google è in missione per costruire un computer quantistico corretto per gli errori . Per iniziare questo viaggio ambizioso, il gigante della tecnologia ha allestito un Quantum AI Campus a Santa Barbara, in California, che ospita il primo data center quantistico di Google, laboratori di ricerca sull'hardware quantistico e strutture di fabbricazione di chip per processori quantistici.  Google ha affermato che le loro sfide future includono la costruzione di batterie più efficienti, la creazione di fertilizzanti migliori per aumentare la resa dei raccolti e lo sviluppo di farmaci in grado di fermare la prossima pandemia.  Registrati al nostro prossimo webinar sulle piattaforme dati La natura è meccanica quantistica. Cioè, i legami e le interazioni tra gli atomi si comportano in modo probabilistico, con dinamiche più ricche che esauriscono la semplice logica di calcolo classica. Proprio perché abbiamo bisogno di computer quantistici per risolvere le sfide future.  Il computer quantistico di Google consentirà la simulazione di comportamenti e interazioni molecolari e gli scienziati potranno testare e inventare nuovi processi chimici e nuovi materiali.   All'interno del campus Quantum AI di Google, un team sta sviluppando hardware, software e algoritmi quantistici altamente specializzati per costruire un computer quantistico utile e corretto per gli errori. Hartmut Neven, Chief Scientist di Google, ritiene che il gigante della tecnologia abbia una sequenza serrata di traguardi difficili ma raggiungibili e spera che il team sarà in grado di costruire il computer quantistico corretto per gli errori prima della fine del decennio.  Google Quantum AI Lab collega i diversi componenti dell'informatica quantistica utilizzando software open source e API cloud. I suoi prodotti includono librerie open source come Cirq, OpenFermion e TensorFlow Quantum.  Cirq è il modo di Google di definire e modificare i circuiti quantistici. Consente ai programmatori di progettare e creare circuiti...
Continua a Leggere

La rete di nanofili artificiali agisce come il cervello quando viene stimolata elettricamente 

Scienziati dell'Università di Sydney e del National Institute for Material Science (NIMS) del Giappone hanno scoperto come far agire una rete artificiale di nanofili in modo simile al cervello quando viene stimolata elettricamente.  Lo studio è stato pubblicato su Nature Communications .  Il team internazionale era guidato da Joel Hochstetter, al quale si sono uniti il ​​professor Zdenka Kuncic e il professor Tomonobu Nakayama.  Il team ha scoperto che possono mantenere una rete di nanofili in uno stato simile al cervello "ai margini del caos" per svolgere compiti a un livello ottimale.  Secondo i ricercatori, questo suggerisce che la natura sottostante dell'intelligenza neurale è fisica e potrebbe portare a nuovi sviluppi nell'intelligenza artificiale.  Joel Hochstetter è un dottorando presso il Nano Institute and School of Physics dell'Università di Sydney e autore principale dell'articolo. "Abbiamo usato fili lunghi 10 micrometri e non più spessi di 500 nanometri disposti casualmente su un piano bidimensionale", ha affermato Hochstetter. "Dove i fili si sovrappongono, formano una giunzione elettrochimica, come le sinapsi tra i neuroni", ha detto. “Abbiamo scoperto che i segnali elettrici che passano attraverso questa rete trovano automaticamente il percorso migliore per trasmettere le informazioni. E questa architettura consente alla rete di "ricordare" i percorsi precedenti attraverso il sistema". Testare la rete NanowireIl team di ricerca ha utilizzato simulazioni per testare la rete di nanocavi casuali al fine di apprendere come potrebbe svolgere e risolvere al meglio compiti semplici.  Ogni volta che il segnale che stimolava la rete era troppo basso, il percorso non produceva uscite sufficientemente complesse perché troppo prevedibili. D'altra parte, se la rete era sopraffatta dal segnale, l'uscita era troppo caotica. Ciò significava che il segnale ottimale era al limite di questo stato caotico, secondo il team. Il professor Kuncic è dell'Università di Sydney...
Continua a Leggere

Qualcomm Snapdragon 888 Plus 5G 

Qualcomm svela la piattaforma mobile Snapdragon 888 Plus 5G  Qualcomm ha presentato oggi una serie di prodotti a semiconduttore 5G per l'evento virtuale del Mobile World Congress, incluso un aggiornamento al processore Snapdragon 888 di punta del produttore di chip. La piattaforma Snapdragon 888 Plus 5G Mobile è il seguito di Snapdragon 888 e servirà come cervello degli smartphone in arrivo nella seconda metà dell'anno da clienti come Asus, Honor, Motorola, Vivo e Xiaomi.  Tra le due piattaforme, ci sono più di 130 design annunciati o in sviluppo. Snapdragon 888 Plus alimenta esperienze di punta con intrattenimento intelligente, tra cui gameplay potenziato dall'intelligenza artificiale, streaming, fotografia e altro ancora. La piattaforma ha l'elenco completo delle funzionalità di gioco Snapdragon Elite per una reattività fluida e una grafica HDR ricca di colori. Rispetto al suo predecessore, Snapdragon 888 Plus offre una maggiore velocità di clock dell'unità di elaborazione centrale (CPU) Prime Core di Qualcomm Kryo 680 fino a 2,995 GHz e il motore AI Qualcomm di sesta generazione con prestazioni fino a 32 TOPS AI, che è più di 20 % di miglioramento. Christopher Patrick, vicepresidente senior di Qualcomm, ha dichiarato in una dichiarazione che numerosi clienti lanceranno prodotti basati sulla piattaforma Qualcomm dalle prestazioni più elevate.   Qualcomm ha anche affermato che oltre 35 leader del settore mobile si sono impegnati a supportare la sua tecnologia 5G mmWave per le reti mobili 5G. La società ha affermato che 5G mmWave offre prestazioni e capacità più elevate rispetto ad altri tipi di 5G. Qualcomm mira ad affrontare i significativi aumenti della domanda di dati degli utenti e anche ad espandere il ruolo dell'ecosistema mobile nel supportare lo sviluppo economico di molti settori verticali, che sono fondamentali nel mondo post-pandemia. Secondo GSA, più di 180 operatori in tutto il mondo stanno investendo in 5G mmWave. I principali leader mondiali del sett...
Continua a Leggere

Nvidia e le GPU con intelligenza artificiale per il 5G

L'antenna di Nvidia porta le GPU all'intelligenza artificiale su 5G  Ci è stato detto a tutti che l'intelligenza artificiale da sola, il 5G da solo e l'edge computing da solo avrebbero dovuto innescare cambiamenti monumentali nell'informatica. Di conseguenza, abbiamo creato aspettative su ciò che ciascuna di queste tecnologie avrebbe dovuto consentire da sola, ma francamente i risultati nel mondo reale sono stati deludenti. Le persone stanno iniziando a capire che è necessario che tutti e tre lavorino insieme contemporaneamente per sentire il loro pieno impatto. È la combinazione della velocità e della bassa latenza del 5G, oltre alla portata estesa dell'edge computing e dell'intelligenza dell'intelligenza artificiale che può alimentare i tipi di applicazioni di grande impatto e scenari futuristici che ci erano stati originariamente promessi con il 5G. A suo merito, Nvidia sembra aver riconosciuto questo punto qualche tempo fa. La società ha utilizzato il MWC di quest'anno per spiegare alcuni dei dettagli critici della sua strategia in queste aree, sfruttando gli sforzi precedentemente annunciati per l'Aerial A100. Nello specifico, l'azienda ha descritto la sua piattaforma di intelligenza artificiale sulla piattaforma 5G, evidenziando sia gli sviluppi software che la roadmap dei semiconduttori necessari per dare vita alle applicazioni di edge computing basate sull'intelligenza artificiale e fornite dal 5G, abilitando anche le funzionalità vRAN e Open RAN, il tutto all'interno di un singolo server.   C'è molto da disfare qui, quindi iniziamo con le basi. Nvidia offre da tempo software di intelligenza artificiale incentrato sull'azienda, accelerato da GPU, attraverso la sua piattaforma EGX e i suoi strumenti di sviluppo software basati su CUDA. Alcuni mesi fa, la società ha anche annunciato Aerial 5G, una piattaforma di sviluppo basata su software creata per consentire l'esecuzione accelerata di uno stack software Open RAN, funzioni di rete virtualizzate (VNF) e altri...
Continua a Leggere
Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi