MLCommons ha pubblicato il nuovo benchmark di formazione MLPerf 4.0, che ha mostrato nuovi livelli di prestazioni eccezionali. Questo benchmark è uno standard nel settore, poiché coinvolge diverse organizzazioni e non favorisce alcun fornitore specifico. La suite MLPerf Training valuta le capacità di sistemi completi di intelligenza artificiale su una vasta gamma di compiti di formazione. Questa versione 4.0 ha presentato oltre 205 risultati da 17 organizzazioni, rappresentando il primo aggiornamento dai risultati della versione 3.1 di MLPerf Training, rilasciata a novembre 2023.

I risultati del benchmark MLPerf 4.0 includono la formazione di immagini tramite Stable Diffusion e Large Language Model (LLM) per GPT-3. Questa edizione ha portato numerosi risultati significativi, come l’introduzione del benchmark LoRA ottimizzato per il modello linguistico Llama 2 70B nel riassunto dei documenti.

Un aspetto notevole è il miglioramento delle prestazioni nel corso del tempo. David Kanter, fondatore e direttore esecutivo di MLCommons, ha dichiarato che alcuni benchmark hanno registrato un incremento delle prestazioni di quasi il doppio rispetto a solo sei mesi fa, in particolare per Stable Diffusion. Questo evidenzia un notevole progresso nel settore.

Il miglioramento delle prestazioni nell’addestramento AI non è solo dovuto all’hardware, ma anche al software e alla gestione delle reti. Le aziende stanno utilizzando una serie di approcci per ottimizzare l’efficienza, compresi migliori algoritmi e una maggiore scalabilità.

Nvidia ha dominato i risultati del benchmark MLPerf 4.0, stabilendo nuovi record di prestazioni su diversi carichi di lavoro con piattaforme hardware simili a quelle utilizzate un anno fa. Questo dimostra il continuo valore delle architetture Nvidia nel settore dell’AI.

L’architettura Nvidia H100 Hopper è stata particolarmente lodata per il suo contributo alle prestazioni. Grazie a varie tecniche di ottimizzazione, Nvidia è riuscita a migliorare ulteriormente le prestazioni per l’addestramento AI.

I benchmark di formazione MLPerf non solo forniscono una base standardizzata per valutare le prestazioni, ma dimostrano anche il valore aggiunto nel tempo. Poiché le organizzazioni investono in queste tecnologie, è cruciale che possano continuare a ottenere benefici significativi nel corso degli anni, e i risultati di MLPerf mostrano che questo è possibile.

Di Fantasy