Hugging Face, un’organizzazione di machine learning open source, ha pubblicato nuovi rapporti che mostrano come le ultime tecnologie per i data center di Intel offrano considerevoli miglioramenti delle prestazioni per l’addestramento e l’esecuzione di modelli di machine learning. I rapporti dimostrano che la GPU Intel Habana Gaudi2 è in grado di eseguire l’inferenza del modello BLOOMZ (una variante di BLOOM, un modello di linguaggio multilingue di grandi dimensioni) con 176 miliardi di parametri, il 20% più velocemente rispetto alla Nvidia A100-80G. Inoltre, la versione più piccola di BLOOMZ con 7 miliardi di parametri viene eseguita tre volte più velocemente sulla GPU Intel Habana Gaudi2 rispetto alla A100-80G.
Per quanto riguarda le CPU, Hugging Face sta pubblicando dati che mostrano l’aumento delle prestazioni della nuova CPU Intel Xeon di quarta generazione rispetto alla versione precedente di terza generazione. Secondo Hugging Face, il modello di intelligenza artificiale generativa testo-immagine Stable Diffusion di Stability AI viene eseguito 3,8 volte più velocemente senza alcuna modifica del codice. Con alcune modifiche, incluso l’utilizzo di Intel Extension per PyTorch con Bfloat16, un formato personalizzato per il machine learning, Hugging Face afferma di essere riuscita ad ottenere un miglioramento della velocità di quasi 6,5 volte. Hugging Face ha anche pubblicato uno strumento di dimostrazione online per consentire a chiunque di sperimentare la differenza di velocità.
Secondo Kavitha Prasad, Vicepresidente e GM di Intel per data center, AI e cloud, l’esecuzione e la strategia, la strategia di Intel per la crescita dell’uso dell’hardware nel campo dell’intelligenza artificiale generativa si concentra sull’addestramento e sull’inferenza, non solo per i più grandi modelli di linguaggio multilingue, ma anche per i casi d’uso reali, dal cloud all’edge.
Sebbene Intel stia chiaramente competendo con Nvidia, Prasad ritiene che si tratti di un “coopetition”, ovvero una situazione di cooperazione e competizione sempre più comune nel settore dell’IT. Nvidia sta infatti utilizzando la CPU Intel Xeon di quarta generazione in alcuni dei suoi prodotti, compreso il DGX100 annunciato a gennaio.
Mentre la competizione tra le due aziende continua, Prasad ha sottolineato che Intel mira a consentire un concetto di “build once and deploy everywhere”, in cui le organizzazioni possano adattare modelli di intelligenza artificiale esistenti, spesso utilizzando l’apprendimento trasferibile, un approccio supportato e incoraggiato da Intel con il suo hardware e il suo software.
Intel si aspetta inoltre di pubblicare presto ulteriori metriche delle prestazioni, tra cui i risultati della prossima serie di benchmark MLperf AI di MLcommons, previsti per l’inizio di aprile. Inoltre, ha accennato alla prossima release di una nuova GPU Habana Guadi3