Helm.ai, leader nel software AI per ADAS di fascia alta, guida autonoma e automazione robotica, ha lanciato VidGen-1, un modello AI generativo che crea sequenze video altamente realistiche di scene di guida per lo sviluppo e la validazione dei sistemi autonomi. Questa innovativa tecnologia segue il lancio di GenSim-1 da parte di Helm.ai per immagini generate dall’AI e rappresenta un passo significativo per la simulazione e la previsione.
Addestrato su migliaia di ore di video di guida, VidGen-1 utilizza architetture avanzate di reti neurali profonde e la tecnologia Deep Teaching per generare video realistici fino a 384 x 640 pixel, con un massimo di 30 fotogrammi al secondo e durate fino a minuti. Il modello può generare sequenze casuali senza input o partire da un singolo frame o un breve video.
VidGen-1 copre diverse geografie e tipologie di telecamere, riproducendo movimenti e comportamenti realistici degli oggetti e dei veicoli secondo le regole del traffico. Include vari scenari urbani e suburbani, veicoli diversi, pedoni, ciclisti, condizioni meteorologiche (come pioggia e nebbia), effetti di illuminazione (come abbagliamento e guida notturna), e riflessi accurati su superfici bagnate e edifici.
“Abbiamo fatto un grande passo avanti nell’AI generativa con VidGen-1, stabilendo un nuovo standard per la guida autonoma”, ha dichiarato Vladislav Voroninski, CEO di Helm.ai. “La nostra tecnologia è versatile e può essere applicata efficacemente in diverse aree, migliorando significativamente la formazione e la validazione dei sistemi autonomi.”
VidGen-1 offre alle case automobilistiche una soluzione scalabile rispetto alle simulazioni tradizionali, riducendo tempi e costi di sviluppo. Questo approccio colma il divario tra simulazione e realtà, fornendo una soluzione realistica ed efficiente per l’addestramento dei sistemi autonomi.