Nell’era dell’economia digitale, i dati rappresentano la risorsa vitale. L’avvento e lo sviluppo delle nuove tecnologie hanno fatto crescere esponenzialmente la richiesta di trasferimento dati più veloci, latenze ridotte e una maggiore capacità di elaborazione all’interno dei data center. Le nuove tecnologie stanno allargando gli orizzonti della trasmissione e dell’elaborazione dei dati, e l’adozione di tecnologie open source si sta dimostrando un alleato fondamentale per gli operatori dei data center, consentendo loro di massimizzare le attuali operazioni e prepararsi per le sfide future. Di seguito, presentiamo alcune tecnologie chiave che stanno guidando questa crescente domanda di elaborazione avanzata e come l’open source sta contribuendo a soddisfare questa domanda su larga scala in modo sostenibile.

Le tecnologie di intelligenza artificiale (AI) e machine learning (ML) stanno rivoluzionando una vasta gamma di settori, dall’elaborazione del linguaggio naturale alla visione artificiale, dal riconoscimento vocale ai sistemi di raccomandazione e alle auto a guida autonoma. Queste tecnologie permettono ai computer di apprendere dai dati e svolgere compiti che richiedono normalmente l’intervento umano.

Tuttavia, l’AI e il ML richiedono enormi quantità di dati e potenza di calcolo per addestrare e gestire modelli e algoritmi complessi. Ad esempio, GPT-3, uno dei modelli di linguaggio naturale più avanzati, conta 175 miliardi di parametri ed è stato addestrato su 45 terabyte di testo. Per gestire in modo efficiente set di dati e modelli su larga scala, le applicazioni di AI e ML richiedono sistemi di calcolo ad alte prestazioni (HPC) che possano offrire velocità di trasferimento dati elevate, basse latenze ed elevata capacità di elaborazione.

Una tendenza emergente nell’ambito dell’HPC è l’uso di processori specializzati come le GPU o le TPU, ottimizzate per l’elaborazione parallela e le operazioni matriciali comuni nei carichi di lavoro di AI e ML. La CPU Grace di NVIDIA, ad esempio, è un nuovo processore progettato specificamente per applicazioni HPC che sfrutta la tecnologia GPU di NVIDIA per offrire prestazioni fino a 10 volte superiori rispetto alle attuali CPU x86. La CPU Grace supporta anche interconnessioni veloci come NVLink, che consentono velocità di trasferimento dati elevate tra CPU e GPU.

L’Apple Vision Pro ha suscitato grande interesse durante la sua presentazione. La realtà aumentata (AR) e la realtà virtuale (VR) sono due delle tecnologie più coinvolgenti e interattive che stanno rivoluzionando settori come l’intrattenimento, l’istruzione, l’assistenza sanitaria e la produzione. La AR sovrappone informazioni digitali al mondo reale, mentre la VR crea un ambiente completamente simulato che gli utenti possono vivere attraverso visori appositi.

Tuttavia, queste tecnologie pongono sfide significative per il trasferimento e l’elaborazione dei dati. Anche se i dettagli sull’Apple Vision Pro sono ancora in fase di definizione, possiamo fare alcune ipotesi basate su visori VR già disponibili, come l’Oculus Quest 2. Questi visori richiedono una connessione ad alta velocità a un PC o a un server cloud per lo streaming di contenuti video e audio ad alta qualità e per monitorare e inserire dati dai visori e dai controller. Il bitrate video, cioè la quantità di dati trasferiti al secondo, dipende dalla velocità con cui la GPU codifica il segnale sul lato del PC o del server e dalla velocità con cui il processore del Quest 2 decodifica il segnale sul lato delle cuffie.

Secondo Oculus, il bitrate consigliato per lo streaming VR varia da 150 Mbps a 500 Mbps, a seconda della risoluzione e del frame rate. Ciò significa che lo streaming VR richiede una velocità di trasferimento dati molto superiore rispetto ad altre attività online come la navigazione web o lo streaming di musica. Inoltre, è fondamentale una bassa latenza, ovvero il tempo che impiega un segnale per viaggiare da un punto all’altro. Una latenza elevata può causare un’esperienza di gioco scadente e contribuire a fenomeni come la cinetosi.

La latenza dipende da vari fattori, tra cui la velocità della rete, la distanza tra i dispositivi e gli algoritmi di codifica e decodifica. Secondo Oculus, la latenza ideale per lo streaming VR è inferiore a 20 millisecondi, ma raggiungere questo obiettivo, specialmente con connessioni wireless come il Wi-Fi o il 5G, non è semplice.

Poiché le nuove tecnologie alimentano la domanda di velocità di trasferimento dati più elevate, latenze più basse e maggiore potenza di elaborazione nei data center, gli operatori dei data center devono affrontare sfide multiple, tra cui l’aumento del consumo energetico, i nuovi requisiti di raffreddamento, l’ottimizzazione dello spazio, i costi operativi e l’evoluzione rapida dell’hardware. Per far fronte a queste sfide, gli operatori dei data center devono ottimizzare la loro infrastruttura esistente e adottare nuovi standard e tecnologie che migliorino l’efficienza e la scalabilità.

Questo è l’obiettivo del progetto Open19, un’iniziativa della Sustainable and Scalable Infrastructure Alliance, ora parte della Linux Foundation. Il progetto Open19 rappresenta uno standard aperto per l’hardware dei data center basato su fattori di forma comuni, offrendo una distribuzione altamente efficiente di prossima generazione dell’alimentazione, componenti riutilizzabili e opportunità per le interconnessioni emergenti ad alta velocità. La missione di SSIA e gli standard aperti sviluppati attraverso il progetto Open19 sono allineati con la crescente spinta del settore verso l’efficienza, la scalabilità e la sostenibilità nell’infrastruttura che alimenta le nostre vite e le comunità digitali. Un altro progetto significativo è l’Open Compute Project (OCP), che mira a supportare in modo efficiente le crescenti richieste di infrastrutture informatiche, promuovendo la collaborazione tra partner del settore per sviluppare soluzioni per data center, compresi i rack dei server da 21 pollici comunemente utilizzati da grandi colossi e hyperscaler. L’ambito di applicazione di OCP si estende anche alla struttura del data center e ai componenti IT interni dei server.

Le nuove tecnologie continuano a guidare la richiesta di velocità di trasferimento dati più elevate, latenze ridotte e maggiore capacità di elaborazione nei data center, mentre comunità, governi e aziende si concentrano sulla gestione delle risorse e sulle crescenti preoccupazioni legate alla sostenibilità, inclusi l’uso dell’acqua, la gestione energetica e altri aspetti legati alla creazione, all’uso e alla distribuzione di tecnologie ad alta intensità di carbonio. L’adozione di tecnologie open source, sviluppate in collaborazione nelle comunità, come SSIA e la Linux Foundation, può aiutare gli operatori dei data center a ottimizzare le loro operazioni attuali e prepararsi per un futuro più sostenibile, soddisfacendo le esigenze delle nuove e entusiasmanti applicazioni.

Di Fantasy