DMatrix, una promettente startup specializzata nella tecnologia chiplet, ha ottenuto un significativo finanziamento da parte di Microsoft (MS) e altri importanti investitori. La tecnologia chiplet, che collega più chip in modo simile ai blocchi Lego, sta guadagnando notorietà per il suo ruolo nell’accelerare le operazioni di intelligenza artificiale (AI), in particolare in un momento di crescente domanda e carenza di unità di elaborazione grafica (GPU).
Secondo quanto riportato da Reuters, Silicon Angle e altri media, DMatrix ha raccolto un’impressionante cifra di 110 milioni di dollari (circa 150 miliardi di KRW) in un round di finanziamento di serie B, guidato da Temasek, il fondo di investimento statale di Singapore.
Microsoft e Playground Global, una società di venture capital statunitense, sono stati tra i principali investitori di questo round, insieme a Mirae Asset e Samsung Ventures, società coreane.
Questo successo segue un round di finanziamento di serie A, svoltosi nell’aprile dello scorso anno, in cui DMatrix ha raccolto 44 milioni di dollari (circa 59 miliardi di KRW) con il supporto di investitori come SK Hynix e altri. Di conseguenza, il totale degli investimenti raccolti ha raggiunto un notevole montante di 154 milioni di dollari (circa 209 miliardi di KRW).
DMatrix, fondata nel 2019, ha recentemente introdotto sul mercato il suo “chiplet Jayhawk II”. Si tratta di un chip di inferenza ottimizzato per supportare applicazioni di intelligenza artificiale generativa, tra cui il noto “ChatGPT”. Questo prodotto sfrutta la tecnologia chiplet con “Digital In-Memory Computing (DIMC)”, caratterizzata da bassa latenza ed elevata efficienza.
La tecnologia chiplet consente la creazione di circuiti integrati più ampi, scalabili e modulari utilizzando piccoli chip. Inoltre, il DIMC incorpora la memoria programmabile direttamente sul chip, riducendo notevolmente il consumo energetico durante l’inferenza AI.
Queste innovazioni si traducono in un aumento significativo del throughput di inferenza nell’intelligenza artificiale generativa, nonché in una notevole riduzione dei tempi di attesa. Si stima che queste soluzioni possano consentire da 10 a 20 volte più inferenze generative al secondo, comportando un notevole miglioramento dei costi.
L’integrazione di entrambi questi aspetti consente la creazione di una piattaforma altamente ottimizzata per le operazioni di inferenza nell’ambito dell’intelligenza artificiale generativa, con prestazioni e efficienza notevolmente migliorate.
Nonostante le prospettive di vendite di DMatrix per quest’anno si attestino attorno ai 10 milioni di dollari (circa 13 miliardi di KRW), principalmente a causa delle fasi di test in corso da parte delle aziende, ci si aspetta che, due anni dopo il lancio su vasta scala, l’azienda raggiunga il punto di pareggio con un fatturato annuo previsto tra 70 e 75 milioni di dollari (circa 93-100 miliardi di KRW).
Sid Sheth, CEO di DMatrix, ha commentato: “Stiamo rivoluzionando l’economia dei costi per l’implementazione dell’inferenza AI attraverso soluzioni di calcolo appositamente progettate per modelli linguistici di grandi dimensioni (LLM). Questo investimento conferma ulteriormente la nostra posizione di rilievo nel settore”.