OpenAI ha annunciato il lancio del suo primo chip di intelligenza artificiale interno, previsto per il 2026, in collaborazione con Broadcom e Taiwan Semiconductor Manufacturing Company (TSMC). Questa mossa segna un importante passo avanti per OpenAI, che cerca di ridurre la dipendenza dalle GPU di NVIDIA, che attualmente dominano il mercato dei chip AI con una quota superiore all’80%.
Con la crescente necessità di potenza di calcolo per l’intelligenza artificiale, OpenAI ha scelto di adottare una strategia mista, progettando i propri chip e collaborando con fornitori esterni come Broadcom e TSMC per la produzione. Broadcom, esperta nella progettazione e produzione di chip, aiuterà OpenAI a garantire la capacità produttiva necessaria, mentre TSMC, leader globale nella produzione di semiconduttori, sarà il partner di produzione.
Il chip di OpenAI sarà focalizzato principalmente sulle attività di inferenza, consentendo all’azienda di soddisfare le crescenti esigenze derivanti dall’uso dei modelli di intelligenza artificiale in scenari in tempo reale, non solo per scopi di addestramento. Questa scelta aiuterà OpenAI a ottimizzare le proprie risorse e gestire i costi, dato che si prevede una perdita di circa 5 miliardi di dollari per il 2024, principalmente a causa delle ingenti spese per hardware, elettricità e servizi cloud.
Oltre a sviluppare il proprio chip, OpenAI ha deciso di diversificare la propria offerta di hardware aggiungendo i chip MI300X di AMD alle GPU di NVIDIA già utilizzate. Questa scelta fa parte di una più ampia strategia volta a garantire una supply chain più ampia e ridurre i rischi legati alla dipendenza da un unico fornitore. AMD prevede di vendere chip AI per un valore di 4,5 miliardi di dollari nel 2024, contribuendo a fornire alternative valide a OpenAI tramite la collaborazione con Azure di Microsoft.
Nonostante la decisione di progettare chip propri, OpenAI sta mantenendo buoni rapporti con NVIDIA, evitando di assumere personale direttamente dall’azienda e continuando a utilizzare le sue GPU ad alte prestazioni. Questa strategia permette a OpenAI di bilanciare lo sviluppo interno e le collaborazioni con fornitori esterni, assicurando così la disponibilità delle risorse necessarie per supportare i suoi servizi di intelligenza artificiale, tra cui ChatGPT.
La scelta di non costruire una rete di fonderie di chip, nonostante l’idea iniziale di raccogliere ingenti fondi per questo progetto, riflette la complessità e i costi elevati associati a tale iniziativa. Invece, OpenAI ha preferito concentrarsi sulla progettazione di chip personalizzati in collaborazione con partner esperti, come Broadcom e TSMC, per soddisfare le sue esigenze di calcolo in modo efficiente e sostenibile.
Questa nuova strategia segna un passo importante per OpenAI nel campo dell’hardware per l’intelligenza artificiale, mettendola in linea con altri leader del settore come Google e Amazon, che hanno già adottato un mix di progettazione di chip interna e sourcing esterno per supportare la crescente domanda di applicazioni AI.