Come l’intelligenza artificiale porta nuovi superpoteri ai supercomputer
 
I supercomputer più veloci e potenti del mondo sono in grado di fare molte cose, ma sempre più il mondo dell’High Performance Computing (HPC) si appoggia all’intelligenza artificiale (AI).

Alla International Supercomputing Conference (ISC) 2022, che si è svolta dal 29 maggio al 2 giugno ad Amburgo, in Germania, i fornitori hanno annunciato nuovi sistemi hardware e software per i supercomputer più veloci del mondo.

 
Tra i grandi annunci, AMD ha rivelato che il suo silicio ora alimenta il supercomputer più potente mai costruito con il sistema Frontier, che è stato costruito da Hewlett Packard Enterprise e sarà distribuito presso l’Oak Ridge National Laboratory nel Tennessee. Per non essere da meno, Intel ha annunciato i suoi sforzi sul silicio che consentiranno futuri sistemi HPC, tra cui la CPU Sapphire Rapids e le imminenti tecnologie GPU Rialto Bridge.

 
Nvidia ha utilizzato l’ISC 2022 come sede per annunciare che il suo superchip Grace Hopper alimenterà il supercomputer Venado al Los Alamos National Laboratory. Nvidia ha anche dettagliato diversi casi di studio su come le sue innovazioni HPC vengono utilizzate per abilitare l’IA per la ricerca sulla fusione nucleare e sulla salute del cervello. HPC non riguarda solo i supercomputer più veloci del mondo. Il fornitore di Linux Red Hat ha annunciato che sta collaborando con il Dipartimento dell’Energia degli Stati Uniti per contribuire a colmare il divario tra ambienti cloud e HPC.

In termini di intersezione tra HPC e intelligenza artificiale /apprendimento automatico (AI/ML), è un’area che è probabile che la conferenza ISC continuerà a evidenziare negli anni a venire.

“Ovviamente l’IA/ML continuerà a svolgere un ruolo più ampio nell’HPC, ma non tutta l’IA/ML è rilevante per l’HPC o addirittura per l’HPC”, ha detto a VentureBeat John Shalf, responsabile del programma per ISC. “Vogliamo davvero approfondire l’IA Applicazioni e implementazioni /ML che hanno un impatto diretto sulle applicazioni scientifiche e ingegneristiche sia nell’industria che nel mondo accademico”.

Intel vede un ruolo crescente per i carichi di lavoro HPC e IA
Per Intel, l’intersezione tra HPC e AI è relativamente chiara.

Anil Nanduri, vicepresidente per la strategia e le iniziative di mercato presso il Super Compute Group di Intel, ha spiegato a VentureBeat che i carichi di lavoro HPC sono particolarmente esigenti, richiedono potenti cluster di potenza di calcolo e sono generalmente utilizzati per l’elaborazione scientifica. Ha aggiunto che la maggior parte dei primi 500 supercomputer sono ottimi esempi di applicazioni ad alte prestazioni in cui la comunità scientifica ricerca nuove scoperte di farmaci e scienze dei materiali ed esegue modelli sui cambiamenti climatici, simulazioni per la produzione, complessi modelli fluidodinamici e altro ancora.  

 
“Proprio come questi tradizionali carichi di lavoro HPC, i carichi di lavoro AI/ML stanno diventando sempre più complessi con requisiti di elaborazione maggiori”, ha affermato Nanduri. “Esistono modelli di intelligenza artificiale su larga scala in esecuzione su infrastrutture di data center che richiedono prestazioni di elaborazione simili a quelle di alcuni dei principali cluster HPC”.

Nanduri vede una domanda e un potenziale continui per l’IA basata su HPC in quanto può aiutare a migliorare le prestazioni e aumentare la produttività.

“Man mano che i carichi di lavoro dell’IA si ridimensionano con set di dati giganteschi che richiedono analisi a livello di HPC, vedremo più IA nell’HPC e più requisiti di elaborazione HPC nell’IA”, ha aggiunto Nanduri.

Come l’IA rende l’HPC più potente
Uno dei grandi annunci dell’ISC della scorsa settimana è stata la presentazione del sistema Frontier, che è stato incoronato come il supercomputer più veloce del mondo.

Secondo Yan Fisher, evangelista globale per le tecnologie emergenti di Red Hat, l’applicazione dell’IA/ML porterà la potenza di calcolo dei supercomputer a un livello completamente nuovo. Ad esempio, la metrica di riferimento principale utilizzata nell’elenco dei primi 500 supercomputer è FLOPS (operazioni in virgola mobile al secondo). Fisher ha spiegato che FLOPS è progettato per esprimere le capacità di qualsiasi supercomputer di eseguire calcoli in virgola mobile con una precisione molto elevata. Questi calcoli complessi richiedono tempo e molta potenza di elaborazione per essere completati. 

“Al contrario, l’uso dell’IA aiuta a ottenere risultati molto più velocemente eseguendo calcoli utilizzando una precisione inferiore e quindi valutando il risultato per restringere la risposta con un alto grado di accuratezza”, ha detto Fisher a VentureBeat. “Il sistema Frontier, utilizzando il benchmark HPL-AI , ha dimostrato capacità di eseguire calcoli incentrati sull’intelligenza artificiale oltre sei volte più al secondo rispetto ai tradizionali calcoli in virgola mobile, espandendo significativamente le capacità di calcolo di quel sistema”.

Dai supercomputer HPC ai miglioramenti a livello aziendale dell’IA
L’HPC alimenta i grandi sistemi, ma qual è l’impatto delle innovazioni AI per i supercomputer sugli utenti aziendali? Fisher ha osservato che le aziende stanno adottando l’IA/ML mentre stanno subendo la trasformazione digitale. 

 
La cosa più interessante a suo avviso è che una volta che le aziende hanno capito come implementare e trarre vantaggio dall’IA/ML, la domanda di infrastrutture AI/ML inizia a crescere. Questa richiesta guida la fase successiva di adozione: la capacità di scalare. 

“Questo è il punto in cui HPC è stata storicamente all’avanguardia, suddividendo i problemi di grandi dimensioni in blocchi più piccoli ed eseguendoli in parallelo o semplicemente in un modo più ottimale”, ha affermato Fisher. 

D’altra parte, Fisher ha commentato che nello spazio HPC, l’uso di container non è così comune e, se sono presenti, non sono i tradizionali container di applicazioni che vediamo nelle implementazioni aziendali e cloud. Questo è uno dei motivi per cui Red Hat sta collaborando con il Department of Energy National Labs, poiché i team dell’infrastruttura IT stanno cercando di supportare meglio i propri scienziati con moderni strumenti di infrastruttura.

In Intel, Nanduri ha affermato di vedere una crescente domanda di accelerazione del calcolo nei carichi di lavoro di elaborazione generica, HPC e intelligenza artificiale. Nanduri ha osservato che Intel sta pianificando di fornire un portafoglio diversificato di architetture eterogenee abbinate a software e sistemi.

“Queste architetture, software e sistemi ci consentiranno di migliorare le prestazioni di ordini di grandezza, riducendo al contempo la richiesta di energia nei carichi di lavoro HPC e AI/ML generici”, ha affermato Nanduri. “Il bello dell’esplosione del Cambriano nell’IA è che tutte le innovazioni guidate dalla necessità di un calcolo scalabile consentiranno alle aziende di fare un balzo in avanti senza dover investire in lunghi cicli di ricerca”.

Di ihal