Intel OpenVINO 2022.1 rilasciato agli sviluppatori per Advance AI Inferencing 

Intel ha rilasciato questa settimana una nuova versione del suo OpenVINO prima del MWC Barcelona 2022 che si terrà dal 28 febbraio al 3 marzo 2022. La distribuzione Intel di OpenVINO Toolkit è stata lanciata per la prima volta nel 2018 e ora include nuove funzionalità per aiutare gli sviluppatori a far avanzare l’inferenza dell’IA. Offrendo uno strumento adatto per il deep learning ad alte prestazioni, mirato a risultati più rapidi e accurati nel mondo reale.

Nuove funzionalità nell’ultima versione di Intel OpenVINO 2022.1
“L’ultima versione di OpenVINO 2022.1 si basa su oltre tre anni di apprendimento da centinaia di migliaia di sviluppatori per semplificare e automatizzare le ottimizzazioni. L’ultimo aggiornamento aggiunge il rilevamento automatico dell’hardware e l’ottimizzazione automatica, in modo che gli sviluppatori di software possano ottenere prestazioni ottimali su ogni piattaforma. Questo software più il silicio Intel offre un vantaggio significativo del ROI dell’IA e viene facilmente implementato nelle soluzioni basate su Intel nella tua rete”, ha affermato Adam Burns, vicepresidente, OpenVINO Developer Tools nel Network and Edge Group”.

 

Meno modifiche al codice durante la transizione dai framework: i formati di precisione ora vengono mantenuti con meno cast e i modelli non necessitano più di conversione del layout.
Un percorso più semplice per un’IA più veloce: i parametri API di Model Optimizer sono stati ridotti per ridurre al minimo la complessità.
Allenati pensando all’inferenza: le estensioni di formazione OpenVINO e il framework di compressione della rete neurale (NNCF) offrono modelli di formazione del modello opzionali che forniscono miglioramenti delle prestazioni aggiuntivi con precisione preservata per il riconoscimento delle azioni, la classificazione delle immagini, il riconoscimento vocale, la risposta alle domande e la traduzione.
Supporto del modello più ampio

Supporto più ampio per modelli di programmazione in linguaggio naturale e casi d’uso come la sintesi vocale e il riconoscimento vocale: il supporto delle forme dinamiche abilita meglio la famiglia BERT e i trasformatori Hugging Face.
Ottimizzazione e supporto per la visione artificiale avanzata: la famiglia Mask R-CNN è ora più ottimizzata ed è stato introdotto il supporto del modello a doppia precisione (FP64).
Supporto diretto per i modelli PaddlePaddle: Model Optimizer ora può importare i modelli PaddlePaddle direttamente senza prima convertirli in un altro framework.
Portabilità e prestazioni

Utilizzo più intelligente del dispositivo senza modificare il codice: la modalità dispositivo AUTO rileva automaticamente la capacità di inferenza del sistema disponibile in base ai requisiti del modello, quindi le applicazioni non devono più conoscere in anticipo il proprio ambiente di elaborazione.
Ottimizzazione avanzata integrata nel toolkit: grazie alla funzionalità di batch automatico, le prestazioni del dispositivo vengono migliorate, ottimizzando e personalizzando automaticamente le impostazioni di throughput corrette per la configurazione del sistema degli sviluppatori e il modello di deep learning. Il risultato è un parallelismo scalabile e un utilizzo ottimizzato della memoria.
Costruito per Intel Core di 12a generazione: supporta l’architettura ibrida per fornire miglioramenti per l’inferenza ad alte prestazioni su CPU e GPU integrata.

Di ihal

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi