OpenAI ha appena annunciato una delle mosse infrastrutturali più significative della sua storia recente. In un accordo pluriennale dal valore superiore ai 10 miliardi di dollari, la società dietro ChatGPT ha stipulato una partnership con Cerebras Systems, una startup statunitense specializzata in hardware per l’intelligenza artificiale, con l’obiettivo di accedere a fino a 750 megawatt di potenza di calcolo dedicata entro il 2028.
Questa intesa è pensata per affrontare uno dei limiti più critici delle tecnologie AI di oggi: la latenza nella fase di inferenza, cioè il tempo che intercorre tra il momento in cui un utente invia una richiesta e quello in cui l’intelligenza artificiale fornisce una risposta. Sebbene OpenAI abbia già scalato i suoi sistemi per servire centinaia di milioni di utenti in tutto il mondo, la crescente complessità delle richieste — dal coding alla conversazione in tempo reale — richiede soluzioni che vadano oltre le tradizionali GPU.
La chiave di questa nuova collaborazione risiede nella tecnologia di chip “wafer-scale” di Cerebras, ovvero processori di dimensioni estremamente grandi, vasti quasi quanto un intero wafer di silicio, capaci di minimizzare i ritardi di comunicazione tipici degli array di GPU più piccoli. Secondo i vertici di Cerebras, questa architettura permette di raggiungere velocità di inferenza significativamente superiori rispetto a quelle offerte dai sistemi GPU convenzionali, con modelli di linguaggio in grado di elaborare migliaia di token al secondo.
L’effetto di un’inferenza più rapida va ben oltre un semplice “tempo di risposta ridotto”. Nella visione condivisa da OpenAI e Cerebras, una latenza inferiore permette di creare interazioni più fluide e naturali tra l’utente e l’AI, favorendo complesse operazioni in tempo reale, come flussi vocali interattivi, agenti autonomi multilivello e applicazioni che combinano più modelli in sequenza senza interrompere l’esperienza d’uso. In altre parole, si tratta di trasformare l’intelligenza artificiale in una piattaforma che risponde con rapidità simile a quella umana, abbattendo il divario tra richiesta e percezione del risultato.
L’accordo arriva anche in un momento di intensa competizione nel settore dell’AI. Le aziende di tecnologia sono impegnate in una vera e propria corsa per assicurarsi capacità di calcolo sempre maggiori, poiché la potenza e la qualità delle applicazioni moderne dipendono tanto dall’intelligenza dei modelli quanto dalla loro capacità di eseguirli rapidamente su vasta scala. Allo stesso tempo, la mossa di OpenAI va oltre il proprio rapporto consolidato con Microsoft e la piattaforma Azure, ampliando la diversificazione dell’infrastruttura su cui l’azienda fa affidamento.
Dal punto di vista di Cerebras, questa partnership ha un significato strategico altrettanto importante. L’azienda aveva già una base di ricavi concentrata su un singolo grande cliente con sede negli Emirati Arabi Uniti, e l’accordo con OpenAI aiuta a bilanciare il proprio portafoglio di clienti mentre si prepara a una possibile IPO. La collaborazione con una delle aziende leader nell’intelligenza artificiale non solo rafforza la reputazione di Cerebras nel panorama tecnologico, ma ne stabilisce la presenza come fornitore chiave di soluzioni di computing per carichi di lavoro di inferenza sofisticati.