L’algoritmo consente la navigazione visiva relativa al terreno nei veicoli autonomi
Un nuovo algoritmo di deep learning sviluppato dai ricercatori del California Institute of Technology (Caltech) consente ai sistemi autonomi di riconoscere dove si trovano osservando il terreno che li circonda. Per la prima volta in assoluto, questa tecnologia può funzionare indipendentemente dai cambiamenti stagionali del terreno.
La ricerca è stata pubblicata il 23 giugno sulla rivista Science Robotics dall’American Association for the Advancement of Science (AAAS).
Navigazione visiva relativa al terreno
Il processo è chiamato navigazione relativa al terreno visivo (VTRN) ed è stato sviluppato per la prima volta negli anni ’60. I sistemi autonomi possono localizzarsi tramite VTRN confrontando il terreno vicino con immagini satellitari ad alta risoluzione.
Tuttavia, l’attuale generazione di VTRN richiede che il terreno che sta osservando corrisponda strettamente alle immagini nel database. Qualsiasi alterazione del terreno, come neve o foglie che cadono, può causare il guasto del sistema a causa di immagini non corrispondenti. Ciò significa che i sistemi VTRN possono essere facilmente confusi a meno che non ci sia un database delle immagini del paesaggio in ogni condizione immaginabile.
Il team coinvolto in questo progetto proviene dal laboratorio di Soon-Jo Chung, Bren Professor di Sistemi aerospaziali e di controllo e dinamici e ricercatore al JPL. Il team ha utilizzato il deep learning e l’intelligenza artificiale (AI) per rimuovere i contenuti stagionali che possono essere fastidiosi per i sistemi VTRN.
Anthony Fragoso è docente e scienziato del personale, nonché autore principale del documento Science Robotics.
“La regola generale è che entrambe le immagini, quella del satellite e quella del veicolo autonomo, devono avere lo stesso contenuto affinché le tecniche attuali funzionino. Le differenze che possono gestire riguardano ciò che può essere realizzato con un filtro Instagram che cambia le tonalità di un’immagine”, afferma Fragoso. “Nei sistemi reali, tuttavia, le cose cambiano drasticamente in base alla stagione perché le immagini non contengono più gli stessi oggetti e non possono essere confrontate direttamente”.
Il processo è stato sviluppato da Chung e Fragoso in collaborazione con lo studente laureato Connor Lee e lo studente universitario Austin McCoy e utilizza “l’ apprendimento auto- supervisionato “.
Invece di fare affidamento su annotatori umani per curare grandi set di dati al fine di insegnare a un algoritmo come riconoscere qualcosa, come nel caso della maggior parte delle strategie di visione artificiale, questo processo consente all’algoritmo di apprendere da solo. L’intelligenza artificiale rileva i modelli nelle immagini rilevando dettagli e caratteristiche che l’occhio umano perderebbe.
Integrando l’attuale generazione di VTRN con il nuovo sistema, si ottiene una localizzazione più accurata. Un esperimento ha coinvolto i ricercatori nel tentativo di localizzare le immagini del fogliame estivo contro le immagini del fogliame invernale utilizzando una tecnica VTRN basata sulla correlazione. Hanno scoperto che il 50 percento dei tentativi ha portato a errori di navigazione, ma quando hanno inserito il nuovo algoritmo nel VTRN, il 92% dei tentativi è stato abbinato correttamente e l’altro 8 percento potrebbe essere identificato in anticipo come problematico.
“I computer possono trovare modelli oscuri che i nostri occhi non possono vedere e possono rilevare anche la più piccola tendenza”, afferma Lee. “VTRN correva il rischio di trasformarsi in una tecnologia irrealizzabile in ambienti comuni ma difficili. Abbiamo salvato decenni di lavoro per risolvere questo problema”.
Applicazioni nello spazio
Il nuovo sistema non ha solo uso per droni autonomi sulla Terra, ma può essere utilizzato anche per missioni spaziali. La missione rover Perseverance Mars 2020 del JPL ha utilizzato VTRN durante l’ingresso, la discesa e l’atterraggio al cratere Jezero, che in precedenza era considerato troppo pericoloso per un ingresso sicuro.
Secondo Chung, per i rover come Perseverance, “è necessaria una certa quantità di guida autonoma poiché le trasmissioni impiegano sette minuti per viaggiare tra la Terra e Marte e su Marte non c’è il GPS”.
Il team ritiene che il nuovo sistema potrebbe essere utilizzato anche nelle regioni polari marziane, che hanno intensi cambiamenti stagionali. Potrebbe consentire una migliore navigazione per sostenere obiettivi scientifici, come la ricerca dell’acqua.
Il team ora espanderà la tecnologia per tenere conto dei cambiamenti meteorologici, come nebbia, pioggia e neve. Questo lavoro potrebbe portare a sistemi di navigazione migliorati per le auto a guida autonoma.