Loihi 2 is Intel's second-generation neuromorphic research chip. It supports new classes of neuro-inspired algorithms and applications, while providing faster processing, greater resource density and improved energy efficiency. It was introduced by Intel in September 2021. (Credit: Intel Corporation)

Chip AI che sono arrivati ​​sul mercato nel 2021
 
Con l’emergere di nuovi sviluppi nel campo dell’intelligenza artificiale e del deep learning , anche i requisiti computazionali hanno registrato un aumento costante. Il successo di qualsiasi moderna tecnica di intelligenza artificiale si basa sul calcolo, su una scala inimmaginabile anche fino a pochi anni fa. Pertanto, vengono sviluppati e rilasciati chip e hardware più avanzati per soddisfare le capacità di elaborazione di reti neurali complesse. La loro capacità di fornire potenza di calcolo dipende dal numero massimo di transistor che è possibile imballare; alcuni sono anche fatti su misura per eseguire calcoli specifici richiesti dai moderni sistemi di intelligenza artificiale in modo efficiente. Questo articolo esaminerà alcuni dei migliori chip AI che hanno lasciato il segno nel mercato con la loro abilità nel 2021. 

Intel Loihi 2
Loihi 2 è il chip di ricerca neuromorfico di seconda generazione di Intel la cui architettura supporta le ultime classi di algoritmi e applicazioni di ispirazione neurologica, fornendo un’elaborazione fino a 10 volte più veloce e una densità di risorse 15 volte maggiore con 1 milione di neuroni per chip e una migliore efficienza energetica. L’uso della litografia a ultravioletti estremi (EUV) ha semplificato le regole di progettazione del layout rispetto alle tecnologie di processo precedenti e ha permesso a Intel di sviluppare rapidamente Loihi 2. Inoltre, i chip Loihi 2 supportano le interfacce Ethernet, un maggiore supporto grazie all’integrazione senza colla con una gamma di sensori di visione basati su eventi e reti a maglie più grandi di chip Loihi 2. Questo potente chip apre le porte a un’ampia gamma di nuovi modelli di rete neurale che possono essere addestrati attraverso il deep learning. 

 
Google Tensor 
Considerato una pietra miliare nell’apprendimento automatico da Google, il Google Tensor co-progettato da Google Research fornisce il supporto straordinario richiesto dai modelli AI-ML all’avanguardia , come Motion Mode, Face Unblur , Speech enhancement per i video e applicazione di HDRnet a video. Google Tensor è stato accuratamente progettato per fornire il corretto livello di prestazioni di elaborazione, efficienza e sicurezza. Il nuovo chip può eseguire modelli ML più avanzati e all’avanguardia a livelli inferiori di consumo energetico. Google Tensor supporta anche la fotografia computazionale e le funzionalità video futuristiche. Dispone inoltre di un core di sicurezza Tensor, un nuovo sottosistema basato su CPU di Google per le future generazioni di chip di sicurezza dedicati. 

 
Ambarella CV52S
Il CV52S di Amberella è un’espansione del suo portafoglio di sistemi di visione AI su chip. Il CV52S fornisce elaborazione di immagini 4K esponenzialmente fluida , codifica/decodifica video ed elaborazione di visione artificiale CVflow in un unico design a bassa potenza. Realizzato con un’avanzata tecnologia di processo a 5 nm, CV52S consente un consumo energetico inferiore a 3 W per la registrazione video 4KP60 con elaborazione AI avanzata a una velocità di 30 fps. Inoltre, l’architettura CVflow del chip fornisce il multiprocessing DNN (Deep Neural Network), un requisito per la prossima generazione di telecamere intelligenti. Il motore CVflow è dotato della capacità di eseguire in modo efficiente più reti neurali (NN) in parallelo, accelerando i classici algoritmi di visione artificiale e fornendo una potente accelerazione della visione artificiale. 

 
Atlazo AZ-N1
Annunciato a gennaio, l’Atlazo AZ-N1 include il suo processore di apprendimento automatico e intelligenza artificiale ad alta efficienza energetica, l’Axon I, che ha lo scopo di elaborare segnali audio, audio, biometrici e altri sensori e classificare le attività in meno di una frazione di il budget energetico rispetto ad altre soluzioni oggi sul mercato. Il processore supporta uno spettro di reti AI/ML, tra cui DNN, LSTM e GRNN e tecniche di estrazione di funzionalità popolari come MFCC. Un processore Axon I può eseguire oltre 130 inferenze. Ci sono vari prodotti in fase di sviluppo in cui l’AZ-N1 troverà il suo utilizzo, inclusi auricolari intelligenti, apparecchi acustici e dispositivi di monitoraggio della salute. 

 
Mythic M1076 AMP
L’M1076 Mythic AMP può fornire fino a 25 TOP per applicazioni AI edge di fascia alta in un singolo chip. Il chip integra 76 tessere AMP e memorizza fino a 80 milioni di parametri di peso, esegue operazioni di moltiplicazione di matrici senza alcuna memoria esterna, il che consente all’M1076 di fornire le prestazioni di calcolo AI di una GPU desktop consumando fino a 1/10 della potenza, il tutto in un singolo chip. I modelli AI-ML possono essere facilmente eseguiti con una risoluzione più elevata e una latenza inferiore per risultati migliori con questo chip altamente potente.

 

NVIDIA A100
La Nvidia A100 è la GPU per data center di punta del produttore di chip per l’inferenza e l’addestramento. Introdotto per la prima volta l’anno scorso, il chip continua a dominare numerosi benchmark per le prestazioni dell’IA. Recentemente, l’A100 ha battuto 16 record di prestazioni AI negli ultimi benchmark MLPerf, che NVIDIA afferma di rendere la GPU la più veloce per le prestazioni di allenamento tra i prodotti disponibili in commercio oggi sul mercato. I Tensor Core di NVIDIA A100 con Tensor Float (TF32) offrono prestazioni fino a 20 volte superiori rispetto a NVIDIA Volta rilasciata in precedenza con zero modifiche al codice e un ulteriore incremento di 2 volte con precisione mista automatica e FP16. Di conseguenza, un carico di lavoro di formazione come BERT può essere risolto su larga scala, in meno di un minuto da 2.048 GPU A100, un record mondiale di tempo per la soluzione.

 
Riassumendo
I moderni sistemi di intelligenza artificiale di oggi non richiedono solo chip non solo specifici per l’intelligenza artificiale, ma anche all’avanguardia. Inoltre, le dinamiche di velocità richieste e la necessità di efficienza dei costi rendono praticamente impossibile sviluppare e implementare algoritmi di intelligenza artificiale all’avanguardia senza chip di intelligenza artificiale all’avanguardia. Tale sviluppo e adozione delle tecnologie dell’IA, a sua volta, aumenta la stabilità globale e sembra essere ampiamente vantaggioso per il futuro dell’IA. 

Loihi 2 is Intel’s second-generation neuromorphic research chip. It supports new classes of neuro-inspired algorithms and applications, while providing faster processing, greater resource density and improved energy efficiency. It was introduced by Intel in September 2021. (Credit: Intel Corporation)

Di ihal