OpenAI ha recentemente attirato l’attenzione per aver iniziato a testare i chip di intelligenza artificiale (AI) sviluppati da Google, noti come TPU (Tensor Processing Units). Questa mossa segna un possibile allontanamento dalla tradizionale dipendenza dai chip NVIDIA, che attualmente costituiscono la spina dorsale delle sue operazioni di AI. Tuttavia, l’azienda ha prontamente precisato che si tratta di una fase di test limitata e che non sono previsti piani per una loro adozione su larga scala.
Secondo quanto dichiarato da un portavoce di OpenAI a Reuters, l’azienda sta attualmente testando alcuni modelli di TPU di Google, ma non ha intenzione di implementarli su larga scala nel prossimo futuro. Il portavoce ha sottolineato che è normale per i laboratori di intelligenza artificiale testare diversi tipi di chip, ma l’adozione su vasta scala richiederebbe significativi cambiamenti nell’architettura e nel software, un processo che richiederebbe molto tempo.
Attualmente, OpenAI utilizza principalmente le GPU di NVIDIA per le sue operazioni di AI, ma ha iniziato a integrare anche i chip AMD per diversificare le sue risorse hardware. Inoltre, l’azienda sta sviluppando i propri chip AI in collaborazione con Broadcom e Taiwan Semiconductor Manufacturing Company (TSMC), con l’obiettivo di ridurre la dipendenza da fornitori esterni e ottimizzare le prestazioni dei suoi modelli. Questi chip personalizzati sono previsti per la produzione entro il 2026.
La decisione di testare i TPU di Google potrebbe essere vista come una strategia per esplorare alternative più economiche e scalabili, dato l’alto costo e la domanda elevata dei chip NVIDIA. Tuttavia, la mancanza di un piano per un’adozione su larga scala suggerisce che OpenAI sta adottando un approccio cauto e valutando attentamente le implicazioni tecniche e operative di una possibile transizione.