Algoritmi di percezione: costruire un mondo per le auto a guida autonoma 
Le case automobilistiche devono raccogliere big data da situazioni di vita reale per creare e lavorare su funzionalità più avanzate attraverso nuovi algoritmi di intelligenza artificiale
 
Secondo un rapporto della AAA Foundation for Traffic Safety , i sistemi avanzati di assistenza alla guida possono ridurre il numero di feriti e decessi rispettivamente del 37% e del 29%. I sistemi avanzati di assistenza alla guida (ADAS) includono sistemi di avviso di collisione, frenata energetica automatica, assistenza al mantenimento della corsia, avviso di uscita dalla corsia e sistemi di monitoraggio degli angoli ciechi che possono potenzialmente garantire la sicurezza fornendo simulazioni per prevedere e percepire il mondo attraverso tali algoritmi. 

L’algoritmo di percezione biologica negli esseri umani ha impiegato milioni di anni per evolversi. Ma gli ingegneri non hanno impiegato un milione di anni per aspettare che questi sistemi completassero il test dell’algoritmo per lo sviluppo autonomo, grazie alla simulazione e al test digitale che lo ha reso possibile. 

 
Algoritmo di percezione e tipi di sensori
Crowley definisce la percezione come il processo di avere una descrizione interna dell’ambiente esterno. I sistemi ADAS sono esperti nel rilevamento dell’ambiente circostante, nell’elaborazione delle informazioni e nell’esecuzione di attività specifiche per funzionalità. I componenti di rilevamento sono ampiamente utilizzati nei moderni sistemi ADAS per determinare l’ambiente circostante il veicolo. Tre tipi principali di sensori includono:

Sensori propriocettivi: questi sensori esaminano il comportamento del conducente. 

 
Dietro il governo indiano ha sostenuto l’azienda di innovazione di intelligenza artificiale e robotica

Il governo di Telangana chiede all’IA di riparare le strade
Sensori esterocettivi: notano cambiamenti esterni nell’atmosfera. È costituito da lidar, radar, ultrasuoni e telecamere. 

Rete di sensori: forniscono informazioni stradali attraverso piattaforme multisensoriali e reti di sensori del traffico. I componenti di questi sensori vengono fusi per creare suite di sensori uniche di cui sono dotati i veicoli dotati di ADAS. Fattori come l’attrattiva del consumatore, i costi e la potenza di calcolo vengono esaminati in modo completo per ciascuna suite di sensori prima di integrare il veicolo. 

Caratteristica dei sensori ADAS 

Perché la fusione dei sensori funziona meglio nell’industria automobilistica?  
Sensor Fusion è il processo di raccolta di dati da lidar, radar, telecamere e sensori a ultrasuoni per analizzare le condizioni ambientali. Affinché un singolo sensore funzioni e fornisca tutte le informazioni necessarie per far funzionare un veicolo autonomo sarebbe difficile, quindi il coinvolgimento di più sensori entra in gioco per una migliore esperienza e per controbilanciare le debolezze individuali. I veicoli autonomi funzionano da dati di fusione dei sensori, dipendenti da algoritmi programmati. Tali algoritmi consentono ai veicoli a guida autonoma di prendere le decisioni corrette e di intraprendere facilmente le azioni. 


Per le complesse applicazioni ADAS che richiedono più di un sensore, come tutti gli elementi che richiedono il controllo laterale/longitudinale, le informazioni di questi sensori possono essere integrate per colmare la lacuna di informazioni di ciascun sensore. Pertanto, questo errore di output di dati misti è leggermente inferiore agli errori del sensore personale. Lo scopo della fusione dei sensori è: 

Sensori complementari: sensori diversi forniscono vari tipi di informazioni necessarie per il sistema. Ad esempio, i radar ti aiutano a valutare meglio la posizione degli ostacoli; la fotocamera, d’altra parte, fornisce informazioni sull’oggetto. E quando combinati, è possibile generare un’immagine migliore dell’ostacolo, consentendo così una buona qualità dell’intero sistema.  

Calcolo: il problema dell’acquisizione e dell’elaborazione dei dati dai singoli sensori sarebbe ridotto con il coinvolgimento della fusione. Inoltre, le informazioni raccolte possono essere archiviate per un periodo più lungo. 

Costo : invece di dotare i veicoli di sensori ogni centimetro, le suite di sensori possono essere progettate con cura per utilizzare il minor numero di sensori necessari per una visione a 360 gradi, facendo coincidere i sensori e fondendo i dati.

Come funziona la percezione autonoma nel sistema CAV
Il sistema CAV (Connected automation vehicle) mira a migliorare l’efficienza del traffico urbano. Si concentra principalmente sull’auto-percezione del veicolo e sulla percezione dell’ambiente. Il CAV è costituito da algoritmi tipicamente responsabili di tre funzioni primarie: tracciamento, fusione dei sensori e assegnazione della corsia. Questi algoritmi utilizzano il sensore radar e la visione frontale per definire la posizione laterale e longitudinale, la velocità laterale e longitudinale relativa, le informazioni sulla corsia e l’accelerazione longitudinale relativa, tracciando così tutti i veicoli all’interno dei sensori anteriori. Tutte le informazioni all’interno del team devono vedere chiaramente una regione di 100 mm longitudinalmente e 12 m lateralmente e sono fornite come input per l’algoritmo di percezione. 

CAV Perception System
L’algoritmo di fusione dei sensori incanala le informazioni sulla posizione del radar, conduce l’associazione dei dati e unisce punti radar e telecamere per ciascun veicolo, utilizzando medie ponderate per generare tracce fuse con i sensori. L’algoritmo di tracciamento funziona dai dati del passaggio temporale attuale e dell’ultimo passaggio per allocare l’ID traccia ed eseguire calcoli di accelerazione e velocità per generare velocità, accelerazione e ID traccia e posizioni degli oggetti tracciati. L’algoritmo di assegnazione della corsia assegna i numeri da 0 a 7 agli oggetti tracciati in base alle loro posizioni laterali.  

Dati in tempo reale per veicoli autonomi 
Questo processo di sviluppo dei dati diventa una sequenza iterativa nell’algoritmo di percezione. Le case automobilistiche devono raccogliere big data da situazioni di vita reale per creare e lavorare su funzionalità più avanzate attraverso nuovi algoritmi di intelligenza artificiale. È così che i dati della vita reale diventano rilevanti. L’integrazione del radar di percezione in una fase iniziale fornisce l’accesso a dati di qualità e facilita la creazione e il funzionamento di queste funzionalità per i clienti attuali e nuovi. Il ciclo di raccolta dei dati segna lo sviluppo e l’implementazione del software promuove costantemente la crescita della percezione e l’aggiunta di input in tutto il prezioso arco di tempo del veicolo. Questo indica semplicemente il miglioramento del veicolo di una persona nel tempo.  

Tuttavia, la raccolta dei dati non significa solo implementare funzionalità di autonomia e ADAS. Poiché le case automobilistiche aggiornano continuamente il loro accumulo su tracce di dati della vita reale, l’esperienza che acquisiscono guiderà l’intera industria dei veicoli autonomi e algoritmi migliori per la tecnologia di livello quattro. Inoltre, implementando questo processo, i conducenti possono prevedere di essere passeggeri nelle proprie auto, che possono guidare meglio grazie ai loro dati di guida perfetti e all’apprendimento. 

Di ihal