L’importanza delle unità di elaborazione grafica (GPU) nell’intelligenza artificiale è stata indiscutibile, ma ora potrebbe essere il momento di guardare oltre. Secondo Keith Witek di Tenstorrent, anche aziende come NVIDIA stanno spostando la loro attenzione verso architetture più versatili.
NVIDIA, tradizionalmente famosa per le sue GPU, sta esplorando l’idea di un calcolo eterogeneo, più simile a un computer tensore che a un chip grafico. Questo cambio di rotta riflette una tendenza più ampia verso l’uso di architetture system-on-chip (SoC) che incorporano unità tensoriali, unità grafiche e CPU. Secondo Witek, questa è la chiave per gestire i carichi di lavoro futuri in modo efficiente ed efficace.
Grandi aziende come Microsoft e AWS, che tradizionalmente dipendevano dalle GPU NVIDIA, stanno sviluppando i propri chip AI. Ad esempio, al Google I/O 2024 è stato presentato il Trillium TPU, progettato per gestire i carichi di lavoro AI in modo più efficiente. Anche i chip progettati da AWS, Microsoft e Google presentano architetture eterogenee, simili a quelle di Tenstorrent.
Tenstorrent si distingue perché vende i suoi chip direttamente ai clienti aziendali, mettendosi in diretta concorrenza con NVIDIA. I loro chip offrono una maggiore densità di calcolo senza aumentare l’energia e il calore, e possono operare efficacemente senza la necessità di costosi chip di memoria HBM. Inoltre, Tenstorrent ha reso open source i suoi stack software, offrendo una piattaforma simile a CUDA ma più leggera e facile da usare, chiamata Metalium.
Secondo Witek, il futuro è promettente, con il software BUDA di Tenstorrent che mira a semplificare ulteriormente il processo di programmazione. Sebbene non si sia ancora raggiunto il punto di crossover in cui la compilazione del codice AI diventa estremamente efficiente, Tenstorrent si sta preparando per questa eventualità, migliorando costantemente l’efficienza del suo software.