Il cervello umano spesso funge da ispirazione per l’intelligenza artificiale (AI), e questo è il caso ancora una volta poiché un team di ricercatori dell’esercito è riuscito a migliorare il rilevamento robotico osservando come il cervello umano elabora la luce brillante e contrastante. Il nuovo sviluppo può aiutare a portare alla collaborazione tra agenti autonomi e umani.
Secondo i ricercatori, è importante che il rilevamento della macchina sia efficace in ambienti in evoluzione, il che porta a sviluppi nell’autonomia.
La ricerca è stata pubblicata sul Journal of Vision .
Capacità di visualizzazione 100.000 a 1
Andre Harrison è un ricercatore presso il Laboratorio di ricerca dell’esercito del Comando per lo sviluppo delle capacità di combattimento dell’esercito degli Stati Uniti.
“Quando sviluppiamo algoritmi di apprendimento automatico, le immagini del mondo reale vengono generalmente compresse in una gamma più ristretta, come fa una fotocamera per cellulare, in un processo chiamato mappatura dei toni”, ha detto Harrison. “Questo può contribuire alla fragilità degli algoritmi di visione artificiale perché si basano su immagini artificiali che non corrispondono esattamente ai modelli che vediamo nel mondo reale”.
Il team di ricercatori ha sviluppato un sistema con capacità di visualizzazione da 100.000 a 1, che ha permesso loro di ottenere informazioni dettagliate sul processo di elaborazione del cervello nel mondo reale. Secondo Harrison, questo ha permesso al team di implementare la resilienza biologica nei sensori.
Gli attuali algoritmi di visione hanno ancora molta strada da fare prima di diventare ideali. Ciò ha a che fare con la gamma limitata di luminanza, con un rapporto di circa 100 a 1, a causa degli algoritmi basati su studi su esseri umani e animali con monitor di computer. Il rapporto 100 a 1 è tutt’altro che ideale nel mondo reale, dove la variazione può arrivare fino a 100.000 a 1. Questo rapporto elevato è definito gamma dinamica elevata o HDR.
Il dottor Chou Po Hung è un ricercatore dell’esercito.
“Cambiamenti e variazioni significative della luce possono sfidare i sistemi dell’esercito: i droni che volano sotto una volta della foresta potrebbero essere confusi dai cambiamenti di riflettanza quando il vento soffia attraverso le foglie, oppure i veicoli autonomi che guidano su terreni accidentati potrebbero non riconoscere buche o altri ostacoli perché le condizioni di illuminazione lo sono leggermente diverso da quelli di cui sono stati addestrati i loro algoritmi di visione “, ha detto Hung.
La capacità di compressione del cervello umano
Il cervello umano è in grado di comprimere automaticamente l’input di 100.000 a 1 in un intervallo più ristretto, e questo è ciò che consente agli esseri umani di interpretare la forma. Il team di ricercatori ha deciso di comprendere questo processo studiando l’elaborazione visiva precoce in HDR. Il team ha guardato a funzionalità semplici come la luminanza HDR.
“Il cervello ha più di 30 aree visive e abbiamo ancora solo una conoscenza rudimentale di come queste aree elaborano l’immagine dell’occhio in una comprensione della forma 3D”, ha continuato Hung. “I nostri risultati con gli studi sulla luminanza HDR, basati sul comportamento umano e sulle registrazioni del cuoio capelluto, mostrano quanto poco sappiamo veramente su come colmare il divario tra il laboratorio e gli ambienti del mondo reale. Ma questi risultati ci fanno uscire da quella scatola, dimostrando che le nostre precedenti ipotesi dai monitor di computer standard hanno una capacità limitata di generalizzare al mondo reale e rivelano principi che possono guidare la nostra modellazione verso i meccanismi corretti “.
Scoprendo come interagiscono i bordi della luce e del contrasto nella rappresentazione visiva del cervello, gli algoritmi saranno più efficaci nel ricostruire il mondo 3D sotto la luminanza del mondo reale. Quando si stima la forma 3D da informazioni 2D, ci sono sempre ambiguità, ma questa nuova scoperta consente di correggerle.
“Attraverso milioni di anni di evoluzione, il nostro cervello ha sviluppato scorciatoie efficaci per ricostruire il 3D da informazioni 2D”, ha detto Hung. “È un problema vecchio di decenni che continua a sfidare gli scienziati della visione artificiale, anche con i recenti progressi nell’intelligenza artificiale”.
La scoperta del team è importante anche per lo sviluppo di dispositivi di intelligenza artificiale come il radar e la comprensione del parlato a distanza, che utilizzano il rilevamento di un’ampia gamma dinamica.
“La questione della gamma dinamica non è solo un problema di rilevamento”, ha detto Hung. “Potrebbe anche essere un problema più generale nel calcolo del cervello perché i singoli neuroni hanno decine di migliaia di input. Come si costruiscono algoritmi e architetture in grado di ascoltare gli input giusti in contesti diversi? Ci auguriamo che, lavorando su questo problema a livello sensoriale, possiamo confermare che siamo sulla strada giusta, in modo da poter avere gli strumenti giusti quando costruiamo Als più complessi “.