Dopo un anno e mezzo dalla sua fondazione e soli quattro mesi dal debutto delle prime anteprime della sua tecnologia, la startup AI Modular ha annunciato oggi di aver raccolto una considerevole somma di 100 milioni di dollari, portando così il suo finanziamento totale fino a questo momento a 130 milioni di dollari.

Questo nuovo round di finanziamento è stato guidato da General Catalyst e ha visto la partecipazione di nomi di rilievo come GV (Google Ventures), SV Angel, Greylock e Factory. Modular si è posizionata con l’audace obiettivo di risolvere i problemi legati all’infrastruttura dell’IA per gli sviluppatori in tutto il mondo. Questo obiettivo viene perseguito attraverso un approccio focalizzato sul prodotto, che include il motore di runtime AI modulare e il linguaggio di programmazione Mojo per l’intelligenza artificiale.

I cofondatori dell’azienda, Chris Lattner e Tim Davis, portano con sé una vasta esperienza nel mondo dell’intelligenza artificiale, avendo entrambi lavorato presso Google per sostenere le iniziative di TensorFlow.

Una delle sfide che Lattner e Davis hanno riscontrato più volte nel campo dell’intelligenza artificiale è stata la complessità dell’implementazione su diverse tipologie di hardware. Modular intende affrontare questa sfida in modo sostanziale.

“Avendo lavorato su questi sistemi per un lungo periodo di tempo, ci siamo uniti e abbiamo ritenuto che fosse possibile costruire un’infrastruttura migliore che semplificasse lo sviluppo e la distribuzione di carichi di lavoro di machine learning su hardware in tutto il mondo attraverso il cloud e i framework, unificando davvero l’infrastruttura”, ha spiegato Davis.

Attualmente, quando si implementa l’inferenza dell’IA, questo spesso avviene utilizzando uno stack di applicazioni strettamente legato a specifiche combinazioni di hardware e software.

Il motore di intelligenza artificiale modulare rappresenta un tentativo di superare l’attuale approccio frammentato all’esecuzione dei carichi di lavoro dell’IA. Davis ha sottolineato che il motore Modular AI permette di accelerare i carichi di lavoro AI, consentendo una scalabilità più rapida e la portabilità su differenti hardware.

Davis ha spiegato che i framework TensorFlow e PyTorch, tra i più comuni nell’ambito dell’IA, sono alimentati nella loro parte posteriore da compilatori runtime. Questi compilatori prendono in pratica un grafo di machine learning, costituito da una serie di operazioni e funzioni, e lo eseguono su un sistema.

Il motore Modular AI rappresenta in sostanza una nuova piattaforma di supporto per i framework AI, sostituendo immediatamente i motori di esecuzione preesistenti di PyTorch e TensorFlow. Inizialmente, il motore di Modular è focalizzato sull’inferenza dell’IA, ma è previsto che si estenderà in futuro anche ai carichi di lavoro di addestramento.

“[Il motore AI modulare] offre agli sviluppatori la possibilità di scegliere il proprio backend, permettendo la scalabilità su tutte le architetture”, ha spiegato Davis. “Ciò si traduce in portabilità dei carichi di lavoro, offrendo maggiore flessibilità e non legando a un particolare tipo di hardware. È il motore di esecuzione più veloce al mondo per carichi di lavoro di IA nella parte posteriore.”

Un’altra sfida che Modular affronta riguarda i linguaggi di programmazione nell’ambito dell’intelligenza artificiale. Python, linguaggio di programmazione open source, rappresenta lo standard de facto per la scienza dei dati e lo sviluppo del machine learning, ma incontra limitazioni in contesti di grande scala. Di conseguenza, gli sviluppatori sono spesso costretti a riscrivere il codice in C++ per ottenere la scalabilità desiderata. Mojo è l’approccio per risolvere questo problema.

“Python presenta delle limitazioni tecniche, come il blocco globale dell’interprete che non consente l’esecuzione di una parallelizzazione su larga scala”, ha spiegato Davis. “Di conseguenza, quando si affrontano carichi di lavoro più ampi, si richiedono layout di memoria personalizzati e si deve passare a C++ per ottenere le prestazioni e la scalabilità necessarie.”

Modular sta costruendo un superset attorno a Python con il suo linguaggio di programmazione Mojo, anziché chiedere agli sviluppatori di imparare sia Python che C++. Mojo offre un linguaggio unificato che supporta il codice Python esistente, garantendo al contempo le prestazioni e la scalabilità richieste.

“La ragione per cui questa è una grande sfida è che spesso la comunità di ricerca lavora in Python, mentre la distribuzione in produzione avviene in C++. Di solito ciò significa che le persone scrivono il proprio codice in un linguaggio e poi devono riscriverlo in un altro per ottimizzarlo su diversi tipi di hardware”, ha affermato Davis. “Ora abbiamo superato questa barriera.”

Fino ad oggi, Mojo è stato disponibile solo in una versione anteprima privata, ma oggi è aperto a sviluppatori che erano in lista d’attesa per l’anteprima. Davis ha confermato che ci sarà un accesso più ampio a partire da settembre. Attualmente, Mojo è un prodotto di proprietà esclusiva, tuttavia Davis ha suggerito che Modular ha intenzione di rendere open source parte di Mojo entro la fine del 2023.

“Il nostro obiettivo è alimentare la comunità globale di sviluppatori di intelligenza artificiale e permetterle di costruire e innovare più rapidamente, contribuendo così a generare un impatto sul mondo”, ha concluso Davis.

Di Fantasy