I “deep fake” potrebbero presto entrare nella geografia
Le preoccupazioni per i “falsi profondi” stanno iniziando ad espandersi in altre aree, come la scienza dell’informazione geografica (GIS). I ricercatori della Binghamton University stanno ora iniziando ad affrontare questo potenziale problema.
Il team comprende il professore associato di geografia Chengbin Deng e altri quattro colleghi, tra cui Bo Zhao e Yifan Sun dell’Università di Washington, e Shaozeng Zhang e Chunxue Xu dell’Oregon State University.
La nuova ricerca è stata pubblicata su Cartography and Geographic Information Science, dal titolo “ Deep fake geografia? Quando i dati geospaziali incontrano l’intelligenza artificiale .”
Nel documento, il team esplora come potrebbero essere costruite e rilevate false immagini satellitari.
“Onestamente, probabilmente siamo i primi a riconoscere questo potenziale problema”, ha detto Deng.
Scienze dell’informazione geografica (GIS) e GeoAI
La scienza dell’informazione geografica (GIS) viene utilizzata per molte applicazioni diverse, tra cui la difesa nazionale e i veicoli autonomi. Attraverso lo sviluppo dell’intelligenza artificiale geospaziale (GeoAI), la tecnologia AI ha avuto un impatto sul campo.
GeoAI utilizza l’apprendimento automatico per estrarre e analizzare i dati geospaziali. Tuttavia, GeoAI potrebbe anche essere utilizzato per falsificare segnali GPS, informazioni sulla posizione sui social media, fabbricare fotografie di ambienti geografici e per una vasta gamma di altre applicazioni pericolose.
“Dobbiamo mantenere tutto questo nel rispetto dell’etica. Ma allo stesso tempo, anche noi ricercatori dobbiamo prestare attenzione e trovare un modo per differenziare o identificare quelle immagini false”, ha detto Deng. “Con molti set di dati, queste immagini possono sembrare reali all’occhio umano”.
Costruire immagini false
Il primo passo per rilevare un’immagine costruita artificialmente è costruirne una, quindi il team si è affidato alla tecnica comune per creare falsi profondi chiamata Cycle-Consistent Adversarial Networks (CycleGAN). CycleGAN è un algoritmo di deep learning non supervisionato in grado di simulare media sintetici.
I Generative Adversarial Networks (GAN), che sono un tipo di IA, richiedono campioni di addestramento del contenuto che sono stati programmati per produrre. Ad esempio, il GAN potrebbe generare contenuto per un punto vuoto su una mappa determinando le diverse possibilità.
I ricercatori hanno deciso di alterare un’immagine satellitare di Tacoma, Washington, e hanno alternato elementi di Seattle e Pechino, facendola apparire il più realistica possibile. Tuttavia, i ricercatori mettono in guardia contro tali compiti.
“Non si tratta della tecnica; si tratta di come gli esseri umani utilizzano la tecnologia”, ha detto Deng. “Vogliamo usare la tecnologia per scopi buoni, non per cattivi scopi.”
Dopo la creazione, il team ha confrontato 26 diverse metriche di immagine per determinare se esistessero differenze statistiche tra le immagini vere e false e ha registrato tali differenze su 20 dei 26 indicatori (80%).
Le differenze includevano il colore dei tetti, dove i colori nelle immagini reali erano uniformi, mentre quelli nel composito erano screziati. Il team ha anche scoperto che l’immagine satellitare falsa era meno colorata e più fioca, ma aveva anche bordi più nitidi. Secondo Deng, le differenze dipendevano dagli input utilizzati per sviluppare il falso.
Questa ricerca pone le basi per ulteriori lavori, che potrebbero consentire ai geografi di tracciare diversi tipi di reti neurali per vedere come generano immagini false, il che porta anche a un migliore rilevamento. Il team afferma che sarà necessario sviluppare metodi sistematici per rilevare falsi profondi e verificare informazioni affidabili in questo campo.