Home / Economia / Recogni raccoglie $ 48,9 milioni per i chip di percezione alimentati da AI

Recogni raccoglie $ 48,9 milioni per i chip di percezione alimentati da AI

Recogni , una startup che progetta un modulo di riconoscimento della vista basato sull’intelligenza artificiale per veicoli autonomi, ha annunciato oggi di aver raccolto 48,9 milioni di dollari. La società afferma che i fondi l’aiuteranno a portare il suo prodotto di percezione sul mercato, ampliando al contempo le dimensioni dei suoi team di ingegneria e go-to-market.

Il CEO RK Anand ritiene che le auto a guida autonoma abbiano un problema di calcolo. Mentre i modelli che guidano il processo decisionale delle auto hanno potenti server per l’addestramento, l’inferenza – la fase in cui gli algoritmi fanno previsioni – deve essere eseguita offline per garantire la ridondanza. Ma anche i modelli completamente addestrati richiedono PC in auto per l’elaborazione in tempo reale, un paradigma che alcuni affermano non è sostenibile.

Ecco perché nel 2017 Anand ha co-fondato Recogni, con sede a San Jose, in California, con Ashwini Choudhary, il fondatore di Eye-Fi Eugene Feinberg, l’ex ingegnere di sistemi di sensori Lilium Gilles Backhus e Valerie Chan. Il modulo integrato di Recogni, che comprende sensori di immagine raffreddati passivamente, un sensore di profondità esterno e un chip di inferenza personalizzato, può eseguire fino a 1 operazioni peta al secondo consumando circa 8 watt di potenza. Grazie a un approccio che scarica l’elaborazione centrale in più punti su un veicolo, il chip può acquisire e analizzare fino a tre flussi non compressi da 8-12 MP a 60 fotogrammi al secondo, raggiungendo un’efficienza di elaborazione del 70% nelle tipiche applicazioni di visione.

Recogni afferma che il suo sistema supera i rivali di oltre due ordini di grandezza in compiti di percezione come la classificazione delle immagini, il rilevamento delle obiezioni, l’anticipazione dell’azione e l’inferenza della profondità. Sul popolare benchmark ResNet 50, il modulo è in grado di classificare 92.105 immagini al secondo; su RetinaNet-101-800, esegue 1.750 inferenze al secondo; e su R (2 + 1) D, può individuare 833 persone contemporaneamente.

“Il modulo di cognizione della visione AI di Recogni è progettato per acquisire ed elaborare i dati di telecamere e sensori ad alta risoluzione”, ha detto un portavoce a VentureBeat via e-mail. “Applicando innovazioni negli algoritmi AI, nell’architettura e nella progettazione ASIC e nel software di sistema, il [modulo] fornirà un’elaborazione ad alte prestazioni con un consumo energetico estremamente basso, consentendo l’elaborazione di immagini ad alta risoluzione e frame rate elevato da più telecamere contemporaneamente in tempo reale tempo.”

Recogni intende inizialmente mirare ai veicoli autonomi di livello 2 come definito dalla Society of Automotive Engineers, che include quelli dotati di sistemi avanzati di assistenza alla guida come Cadillac’s Super Cruise, Nvidia Drive AutoPilot e Volvo’s Pilot Assist. In futuro, la società prevede di ruotare verso piattaforme per veicoli di livello 3 in grado di sterzare, accelerare o decelerare e superare altre auto senza input umano e auto di livello 4 che possono guidare in gran parte da sole senza intervento umano, con l’obiettivo di abilitare eventualmente le auto che può fare tutto ciò che può fare un guidatore umano.

Gli approcci strettamente basati sulla visione alla guida autonoma non sono affatto lodati universalmente, ma sono sostenuti da Mobileye di Intel , che sta sviluppando un chip del processore acceleratore personalizzato che offre una copertura a 360 gradi, grazie a algoritmi proprietari, telecamere e ultrasuoni. Allo stesso modo, la startup di semirimorchi senza conducente TuSimple afferma che la sua tecnologia basata su telecamere, che utilizza lidar in gran parte per la ridondanza, ha un raggio di rilevamento di 1.000 metri. E il gigante tecnologico di Pechino Baidu ha recentemente presentato un framework per veicoli basato sulla visione, Apollo Lite , che afferma di aver dimostrato piena autonomia sulle strade pubbliche.

Recogni ha anche un concorrente in Tesla, che nell’aprile 2019 ha dettagliato un chipset prodotto da Samsung con oltre 144 operazioni tera al secondo di prestazioni AI. Nvidia, un’altra formidabile rivale nello spazio, afferma che Drive Xavier, il system-on-chip al centro della sua piattaforma di sviluppo per veicoli autonomi Drive AGX Pegasus , consuma solo 30 watt.

Ma Recogni non è un’operazione fly-by-night. Anand ha fiducia nel suo elenco di ingegneri, manager e data scientist con pedigree, provenienti da Intel, Juniper Networks, Kumu Networks, Sun Microsystems, Silicon Graphics, Xsigo Systems, NavVis e Cisco, tra gli altri, hanno le carte in regola per affrontare il gli operatori storici più finanziati del settore.

“Questo investimento è un forte sostegno alla visione di Recogni da parte dei leader di settore e di venture capital”, ha affermato Anand. Ha aggiunto che, sebbene Recogni non abbia ancora iniziato a produrre in serie il suo modulo, l’azienda ha completato le prove di concetto con “diversi” clienti automobilistici senza nome. “Stiamo procedendo nel nostro viaggio per risolvere la sfida dell’elaborazione della percezione e dell’efficienza energetica costruendo il sistema di inferenza AI più performante al mondo con il minor consumo di energia”.

WRVI Capital, Mayfield Fund, Continental Automobiles, Robert Bosch Venture Capital e gli investitori esistenti GreatPoint Ventures, Toyota AI Ventures, BMW i Ventures, Fluxunit-OSRAM Ventures, DNS Capital e altri hanno partecipato al round di finanziamento di serie B di Recogni. Porta il totale della società raccolto fino ad oggi a oltre $ 65 milioni dopo un round di $ 25 milioni nel luglio 2019.

Oltre a San Jose, Recogni ha operazioni a Monaco e nella sua sede di Cupertino.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi