Lambda Labs raccoglie 15 milioni di dollari per l’infrastruttura hardware ottimizzata per l’intelligenza artificiale
Lambda Labs , una società di infrastrutture di intelligenza artificiale, questa settimana ha annunciato di aver raccolto 15 milioni di dollari in un round di finanziamento di rischio. Quest’ultimo investimento porta il totale della società a raggiungere i 19 milioni di dollari, a seguito di un investimento di 4 milioni di dollari da parte di Gradient Ventures e Bloomberg Data.
Nel 2013, Lambda, con sede a San Francisco, in California, ha lanciato controverso un’API di riconoscimento facciale per gli sviluppatori che lavorano su app per Google Glass , lo sfortunato display di realtà aumentata di Google. L’API, che presto si è estesa ad altre piattaforme, potrebbe abilitare app come “ricorda questa faccia” e “trova i tuoi amici in mezzo alla folla”, ha detto all’epoca il CEO di Lambda Stephen Balaban a TechCrunch . L’API è stata utilizzata da migliaia di sviluppatori e, almeno a un certo punto, ha visto oltre 5 milioni di chiamate API al mese.
Da allora, tuttavia, Lambda si è concentrata sulla vendita di sistemi hardware progettati per applicazioni di intelligenza artificiale, machine learning e deep learning. Tra questi ci sono il TensorBook, un laptop con una GPU dedicata e un prodotto workstation con un massimo di quattro GPU di classe desktop per la formazione sull’intelligenza artificiale. Lambda offre anche server, incluso uno progettato per essere condiviso tra i team e un altro, chiamato Echelon, che Balaban descrive come “scala datacenter”.
“I team di machine learning trascorrono una quantità enorme del loro tempo a costruire e gestire la propria infrastruttura di elaborazione”, ha affermato Balaban durante una vetrina alla conferenza Transform 2021 di VentureBeat. “Se utilizzano l’infrastruttura locale, dedicano tempo alla progettazione di server e workstation, all’acquisto e all’approvvigionamento di GPU e CPU, a negoziare con i fornitori, a comprendere l’alimentazione e il raffreddamento e quindi a eseguire implementazioni effettive nel data center. Se eseguono la propria infrastruttura nel cloud, devono dedicare tempo alla progettazione delle immagini della macchina da distribuire con quell’istanza, scrivere script di provisioning e mantenere aggiornate le immagini della macchina. Fondamentalmente, [le aziende stanno] pagando un sacco di soldi a persone che hanno un dottorato in informatica per fare l’amministrazione del sistema Linux per te.
Software plus hardware
Un certo numero di startup offre hardware preconfigurato per lo sviluppo AI, incluso Graphcore . Ma Balaban afferma che il principale elemento di differenziazione di Lambda sono i suoi strumenti software.
Ogni macchina Lambda viene preinstallata con Lambda Stack, una raccolta di framework di sviluppo software di machine learning, tra cui TensorFlow di Google e PyTorch di Facebook. Gli sviluppatori possono aggiornare i framework con un singolo comando della console e, se hanno addestrato il modello su un computer locale, possono copiarlo su un server Lambda in esecuzione nel cloud.
“I nostri clienti includono Apple, Intel, Microsoft, Amazon Research, Tencent, Kaiser Permanente, MIT, Stanford, Harvard, Caltech e il Dipartimento della Difesa”, ha affermato Balaban. “Abbiamo [migliaia] di utenti, [e] la maggior parte delle Fortune 500 e quasi tutte le principali università di ricerca negli Stati Uniti, così come [molti] laboratori di ricerca presso il Dipartimento dei trasporti e il Dipartimento dell’energia, utilizzano hardware Lambda e Lambda Stack.”
Balaban afferma inoltre che la società, fondata nel 2012, ha registrato un flusso di cassa positivo da novembre 2013. Ha un tasso di entrate di 60 milioni di dollari per il 2021.