L’emergere di modelli di ragionamento avanzati, come il DeepSeek-R1, ha sollevato interrogativi sulla necessità di infrastrutture estese per supportare tali tecnologie. Contrariamente alle aspettative iniziali, questi modelli stanno incrementando la domanda di risorse GPU, anziché ridurla.​

Quando DeepSeek-R1 è stato introdotto, si pensava che la sua avanzata capacità di ragionamento potesse essere raggiunta con un’infrastruttura ridotta. Tuttavia, l’esperienza di Together AI suggerisce il contrario. Secondo Vipul Prakash, CEO di Together AI, il modello DeepSeek-R1 richiede risorse significative per l’inferenza, data la sua complessità di 671 miliardi di parametri distribuiti su più server.

Inoltre, la qualità superiore del modello ha aumentato la domanda da parte degli utenti, richiedendo una maggiore capacità infrastrutturale. Le richieste di inferenza per DeepSeek-R1 possono durare dai due ai tre minuti, contribuendo ulteriormente alla necessità di risorse computazionali aggiuntive.​

Per rispondere a questa crescente domanda, Together AI ha recentemente annunciato un finanziamento di 305 milioni di dollari nella serie B, guidato da General Catalyst e co-guidato da Prosperity7. Fondata nel 2023, l’azienda mira a semplificare l’uso aziendale dei modelli linguistici open-source. Nel 2024, ha lanciato la piattaforma Together Enterprise, che consente l’implementazione di AI in ambienti cloud privati virtuali e on-premises. Nel 2025, l’azienda sta ampliando ulteriormente la sua piattaforma con cluster di ragionamento e funzionalità di AI agentica. Attualmente, la piattaforma di Together AI supporta oltre 450.000 sviluppatori registrati, con una crescita del business sei volte superiore rispetto all’anno precedente. Tra i clienti si annoverano aziende e startup AI come Krea AI, Captions e Pika Labs.​

L’aumento della domanda di modelli come DeepSeek-R1 ha evidenziato l’importanza cruciale delle GPU nell’infrastruttura AI. Nonostante l’ottimizzazione dei modelli, la complessità e la qualità delle richieste richiedono risorse computazionali significative. Questo trend suggerisce che, con l’avanzare delle capacità dei modelli di ragionamento, la necessità di infrastrutture GPU robuste continuerà a crescere, influenzando le strategie di investimento e sviluppo nel settore dell’intelligenza artificiale.

Di Fantasy