Nuovi benchmark rilasciati da MLCommons per aumentare le prestazioni di ML
I benchmark si basano sull’aggiornamento MLPerf Inference v2.1, che ha introdotto nuovi modelli come SSD-ResNeXt50 per la visione artificiale e una nuova divisione di test.
L’organizzazione multi-stakeholder MLCommons ha creato nuovi benchmark per aiutare a far progredire lo stato della tecnologia ML. La mossa è stata intrapresa nel tentativo di comprendere le caratteristiche delle prestazioni di diversi hardware e software per l’apprendimento automatico (ML), fondamentali per le organizzazioni che ne ottimizzano le implementazioni.
Il regime di test MLPerf dell’azienda statunitense si basa su una serie di aree diverse con benchmark condotti durante tutto l’anno. Una serie di benchmark è stata rilasciata sui dati di addestramento ML all’inizio di luglio 2022, con l’ultima serie di benchmark MLPerf per l’inferenza ML rilasciata a settembre 2022.
Questi sono basati sull’aggiornamento MLPerf Inference v2.1, che ha introdotto nuovi modelli come SSD-ResNeXt50 per la visione artificiale e una nuova divisione di test per l’inferenza sulla rete. Ciò consentirà di espandere la suite di test per replicare scenari del mondo reale.
Con un addestramento coerente, un modello apprende mentre l’inferenza fornisce risultati da nuovi dati, come l’inferenza per il riconoscimento delle immagini nella visione artificiale.
Il sistema ML di Quora è un atto di classe
Il vicepresidente Vijay Janapa Reddi di MLCommons ha dichiarato : “MLCommons è una comunità globale e il nostro interesse è davvero quello di abilitare il ML per tutti. Ciò significa in realtà riunire tutti gli attori hardware e software nell’ecosistema attorno all’apprendimento automatico in modo da poter provare a parlare la stessa lingua”.
Reddi ha inoltre affermato che parlare la stessa lingua significa disporre di modalità standardizzate per segnalare e rivendicare le metriche delle prestazioni di ML. Con diverse variabili che cambiano costantemente, ha sottolineato che il benchmarking è un’attività impegnativa nell’interfaccia ML; con l’obiettivo di MLCommons di misurare le prestazioni in modo standardizzato per monitorare i progressi.