Un gruppo di ricerca nazionale ha creato un potentissimo acceleratore di intelligenza artificiale (AI) chiamato CXL-GPU, che sfrutta la tecnologia CXL (Compute Express Link) per migliorare le prestazioni delle GPU ad alta capacità. Questa tecnologia collega grandi quantità di memoria direttamente alle GPU, integrando efficacemente lo spazio di memoria del dispositivo con quello della GPU stessa.
Rispetto alla tradizionale aggiunta di costose GPU per aumentare la memoria, CXL-GPU riduce i costi aggiungendo risorse di memoria in modo più selettivo. Tuttavia, garantire prestazioni di lettura e scrittura equiparabili alla memoria locale della GPU era una sfida. I ricercatori del KAIST hanno affrontato questo problema sviluppando una tecnologia che ottimizza l’efficienza di scrittura della memoria del dispositivo aggiuntivo.
Questa tecnologia consente al dispositivo di espansione della memoria di gestire autonomamente i tempi di scrittura, permettendo alla GPU di continuare altre operazioni senza dover aspettare il completamento della scrittura. Inoltre, hanno implementato una tecnologia che permette al dispositivo GPU di anticipare letture di memoria, accelerando così l’accesso ai dati.
Utilizzando il prototipo CXL-GPU di Panmnesia, i ricercatori hanno dimostrato un miglioramento delle prestazioni dell’intelligenza artificiale fino a 2,36 volte rispetto alla tecnologia precedente di espansione della memoria GPU. Questi risultati saranno presentati alla conferenza USENIX di Santa Clara e alla ricerca di Hot Storage a luglio.
Il professor Jeong Myung-soo del KAIST ha sottolineato che l’avanzamento delle CXL-GPU può significativamente ridurre i costi per le grandi aziende che gestiscono l’intelligenza artificiale su larga scala.