I sensori AI potrebbero aiutare i veicoli autonomi nelle città innevate
Una delle maggiori sfide che i veicoli autonomi devono affrontare è che hanno difficoltà a navigare in condizioni meteorologiche avverse, il che limita davvero la loro implementazione in città innevate come Detroit e Chicago. I veicoli si basano su dati cruciali dei sensori per rilevare gli ostacoli e mantenersi sul lato corretto della strada, ma questi dati fanno fatica nella neve.
In due nuovi documenti presentati in SPIE Defense + Commercial Sensing 2021 , i ricercatori della Michigan Technological University hanno discusso nuove soluzioni per scenari di guida sulla neve con veicoli autonomi.
Esiste una vasta gamma di veicoli autonomi, inclusi alcuni con punti ciechi o assistenza alla frenata e altri con modalità di guida autonoma attivate e disattivate. Alcuni dei migliori veicoli possono funzionare completamente da soli.
Poiché la tecnologia è ancora agli inizi in molti modi, le case automobilistiche e le università di ricerca lavorano continuamente per migliorare la tecnologia e gli algoritmi. Quando si verificano incidenti, sono spesso il risultato di un errore di valutazione da parte dell’intelligenza artificiale dell’auto o di un errore umano.
Sensori umani
Gli occhi umani sono anche una forma di sensori, poiché percepiscono l’equilibrio e il movimento. Il nostro cervello agisce come un processore, aiutandoci a capire il nostro ambiente. Insieme, ci consentono di guidare in tutti gli scenari, anche quelli nuovi, poiché il nostro cervello può generalizzare nuove esperienze.
I veicoli autonomi di solito hanno due telecamere montate su gimbal e scansionano e percepiscono la profondità usando la visione stereo per imitare la visione umana. Allo stesso tempo, equilibrio e movimento possono essere misurati con un’unità di misura inerziale. I computer, d’altra parte, possono reagire solo a scenari incontrati in precedenza oa quelli che sono già stati programmati per riconoscere.
Sensor Fusion
I veicoli autonomi si basano su algoritmi di intelligenza artificiale specifici per attività, che richiedono più sensori come telecamere fisheye, sensori a infrarossi, radar, rilevamento della luce e lidar.
Nathir Rawashdeh è assistente professore di informatica al College of Computing del Michigan Tech e uno degli autori principali dello studio.
“Ogni sensore ha dei limiti e ogni sensore copre la schiena di un altro”, ha detto Rawashdeh. “La fusione dei sensori utilizza più sensori di diverse modalità per comprendere una scena. Non è possibile programmare in modo esauriente ogni dettaglio quando gli input hanno schemi difficili. Ecco perché abbiamo bisogno dell’intelligenza artificiale”.
I collaboratori dello studio includevano Nader Abu-Alrub, dottorando in ingegneria elettrica e informatica, e Jeremy Bos, assistente professore di ingegneria elettrica e informatica. Altri collaboratori includevano studenti di master e laureati del laboratorio di Bos: Akhil Kurup, Derek Chopp e Zach Jeffreies.
I sensori autonomi e gli algoritmi di guida autonoma sono sviluppati quasi esclusivamente in paesaggi soleggiati e limpidi. Il laboratorio di Bos ha iniziato a raccogliere dati in un veicolo autonomo Michigan Tech sotto la neve pesante e sono stati raccolti oltre 1.000 fotogrammi di dati lidar, radar e immagini da strade innevate in Germania e Norvegia.
Secondo Bos, il rilevamento del sensore è difficile a causa di una varietà di neve. È importante pre-elaborare i dati e garantire un’etichettatura accurata.
“Tutta la neve non è creata uguale”, ha detto Bos, “l’intelligenza artificiale è come uno chef – se hai buoni ingredienti, ci sarà un pasto eccellente”, ha detto. “Dai alla rete di apprendimento AI dati sporchi del sensore e otterrai un cattivo risultato.”
Alcune altre sfide principali riguardano dati di bassa qualità e sporcizia e l’accumulo di neve sui sensori causa i suoi problemi. Anche dopo che i sensori sono stati cancellati, non c’è sempre accordo nel rilevare gli ostacoli. Spesso è davvero difficile far comunicare i sensori e le loro valutazioni dei rischi e imparare gli uni dagli altri, poiché ognuno può giungere alla propria conclusione. Tuttavia, il team vuole che i sensori autonomi giungano a una conclusione collettiva utilizzando la fusione dei sensori.
“Piuttosto che votare rigorosamente, utilizzando la fusione dei sensori faremo una nuova stima”, afferma Bos.
I sensori dei veicoli autonomi continueranno ad apprendere e migliorare in caso di maltempo e nuovi approcci come la fusione dei sensori potrebbero aprire la strada ai veicoli autonomi su strade innevate.