Sono quelle cose che a prima vista sembrano inutili, ma se poi ti capita di doverlo fare eviti di elencare l’intero calendario dei Santi


Ricercatori e scienziati della Divisione di energia sostenibile e ingegneria ambientale dell’Università di Osaka sono stati in grado di rimuovere digitalmente le nuvole dalle immagini aeree utilizzando le reti generative avversarie (GAN). Con i dati risultanti, potrebbero generare automaticamente set di dati accurati per creare maschere di immagini. 

La ricerca è stata pubblicata su Advanced Engineering Informatica . 

Il team ha messo due reti di intelligenza artificiale (AI) l’una contro l’altra per migliorare la qualità dei dati e non ha richiesto immagini precedentemente etichettate. Secondo il team, questi nuovi sviluppi potrebbero essere utilizzati in campi come l’ingegneria civile, dove la tecnologia di visione artificiale è importante.

Machine Learning per la riparazione delle immagini
L’apprendimento automatico viene spesso utilizzato per riparare le immagini oscurate, come le immagini aeree di edifici oscurati dalle nuvole. Questa attività può essere eseguita manualmente, ma richiede tempo e non è efficace quanto gli algoritmi di apprendimento automatico. Anche quegli algoritmi già disponibili richiedono un ampio set di immagini di addestramento, quindi è fondamentale far progredire ulteriormente la tecnologia.

Questo è ciò che hanno fatto i ricercatori dell’Università di Osaka quando hanno applicato le reti generative avversarie. Una rete è la “rete generativa” e propone immagini ricostruite senza le nuvole. Questa rete è messa contro una “rete discriminatoria”, che si basa su una rete neurale convoluzionale per distinguere tra le immagini riparate digitalmente e le immagini reali senza nuvole.

Man mano che le reti procedono attraverso questo processo, entrambe migliorano sempre di più, il che consente loro di creare immagini altamente realistiche con le nuvole cancellate digitalmente. 

Kazunosuke Ikeno è il primo autore dell’articolo. 

“Addestrando la rete generativa a ‘ingannare’ la rete discriminante facendogli credere che un’immagine sia reale, otteniamo immagini ricostruite che sono più autoconsistenti”, afferma Ikeno. 

  
Allenare il sistema
Il team si è affidato a modelli virtuali 3D con fotografie da un set di dati open source, e questo è stato utilizzato come input. Ciò ha consentito al sistema di generare automaticamente “maschere” digitali che si sovrapponevano agli edifici ricostruiti sul cloud. 

Tomohiro Fukuda è l’autore senior della ricerca.

“Questo metodo consente di rilevare edifici in aree senza dati di formazione etichettati”, afferma Fukuda.

Il modello addestrato è stato in grado di rilevare edifici con un valore di “intersezione su unione” di 0,651. Questo valore è la misura della precisione con cui l’area ricostruita corrisponde all’area reale. 

Secondo il team, questo metodo può migliorare la qualità di altri set di dati con immagini oscurate, deve solo essere esteso. Ciò può includere immagini in vari campi, come l’assistenza sanitaria, dove potrebbe essere utilizzato per migliorare l’imaging medico.

Di ihal