Facce sintetiche: questa intelligenza artificiale falsifica la realtà in nome della privacy

In un’era di deepfake per divertimento e deepfake per inganno, ora abbiamo deepfake per la privacy.

E proprio come tutti gli altri deepfake, questo solleva interrogativi etici e morali impegnativi.

La tecnologia deepfake di cui sto parlando proviene da una startup con sede a Berlino chiamata Brighter AI , che fornisce soluzioni per la privacy per un mondo sempre più sorvegliato: sfocatura della targa e sfocatura del viso in modo che le aziende con telecamere possano rispettare le leggi sulla privacy europee, in particolare il GDPR.

Ora l’azienda sta lanciando un nuovo prodotto, ProtectPhoto, che rende anonimi i volti nelle immagini in un modo completamente diverso.

“Estraiamo i volti originali e li sostituiamo con volti nuovi che non sono tracciabili rispetto a quello originale”, mi ha detto il CEO di Brighter AI Marian Glaeser in un recente episodio del podcast TechFirst . “Quindi prenderemmo la tua faccia, per esempio, e moduleremmo con la stessa età, sesso ed etnia una nuova faccia che non sarebbe la tua. Sarebbe fondamentalmente il volto di una persona artificiale, e quindi non sarebbe riconoscibile e tracciabile “.

Guarda l’intervista dietro questa storia:

L’obiettivo di Glaeser è ammirevole.

Ci sono più di 770 milioni di telecamere di sorveglianza nel mondo oggi e si prevede che il numero supererà il miliardo nel 2021. La metà di queste telecamere si trova in Cina, uno stato con una storia di brutale repressione del dissenso e delle minoranze, ma molte sono in Regno Unito, Stati Uniti e altre nazioni del pianeta.

Siamo veramente liberi, se siamo costantemente osservati?

Questa è la situazione che Brighter AI sta cercando di risolvere.

Certo, non sono solo le aziende e i paesi a stare a guardare. Un denominatore comune nelle proteste di Black Lives Matter e nelle risposte della polizia negli Stati Uniti di recente è la fotocamera dello smartphone. Ogni alterco, apparentemente, ha dozzine di osservatori con i loro telefoni fuori, che registrano.

Condivisione. Diretta streaming. Trasmissione.

Glaeser è preoccupato per l’impatto a lungo termine dei volti delle persone condivisi senza il loro permesso. Ecco perché sta modificando i volti. E, per estensione, alterando la realtà. O, almeno, la nostra testimonianza.

“Quindi [le facce] sono diverse dall’originale e se questa persona era a una dimostrazione, questa immagine non aiuterà nessuno, nessuna delle forze dell’ordine, o da un uso improprio se non sei in un paese democratico, o da nessuna parte, per usare questa immagine contro di te “, dice.

Ma è pienamente consapevole del pregiudizio che l’IA può imparare dagli esseri umani, e quindi sta anche cercando di mantenere la composizione di genere e razziale della realtà. L’intelligenza artificiale più brillante lo fa tramite una rete neurale profonda generativa, generando volti completamente nuovi per adattarsi a età, sesso, etnia e altro ancora. Quindi un giovane asiatico o una donna nera più anziana manterrebbero la loro età e razza apparenti. E, dice Glaeser, un individuo etnico o di genere indeterminato rimane come visto.

Non è chiaro, tuttavia, come potremmo effettivamente sapere se la rete neurale di Brighter AI è completamente fedele alla realtà, o se nasconde pregiudizi invisibili e sconosciuti basati sui suoi creatori o su un capriccio della sua tecnologia.

Perché non solo la tradizionale sfocatura del viso?

La protezione della privacy più tradizionale per le foto è uno strumento schietto, non uno scapel. Sfoca leggermente un viso o cambia alcuni pixel.

Glaeser dice che non funziona.

“Quello che vediamo nella ricerca e anche nel proprio sviluppo, è un gioco del gatto e del topo”, mi ha detto. “Quindi, cambiando … un paio di pixel, prendi in giro un rivelatore, un algoritmo e c’è un nuovo algoritmo e funziona di nuovo. Quindi il nostro approccio è diverso … stiamo cambiando l’intera faccia. “

Ciò che Brighter AI fa è filigranare le immagini per identificare che le persone nella foto hanno “volti sintetici”. Le persone possono, tuttavia, disabilitare quella filigrana.

Tutto ciò, ovviamente, solleva tutti i tipi di domande: chi c’è effettivamente in una foto? Una foto che è stata elaborata in questo modo è in qualche modo reale ? È storico? Chi può – o vuole – scattare foto reali di eventi reali con persone reali per documenti storici reali? E, se adottassimo questo … il resto di noi sta solo scattando foto casuali che sono essenzialmente false?

Ricorda le leggi sul diritto all’oblio dell’Europa.

Solleva la questione se il diritto di qualcuno alla privacy vince sui diritti degli altri di ricordare e registrare, con precisione e un certo grado di verità.

Non ho tutte quelle risposte.

Ma, come società globale, avremo bisogno di porre queste domande e trovare un qualche tipo di risposta. Perché se pensiamo che la situazione sia moralmente incerta ora, con un miliardo di telecamere di sorveglianza e miliardi di smartphone, avremo problemi ancora più grandi quando gli smartglass diventeranno i nuovi telefoni e miliardi di noi inizieranno a camminare con le telecamere sui nostri volti che sono sempre attivi mentre aumentano le nostre realtà.

La tecnologia ProtectPhoto di Brighter AI è attualmente disponibile tramite un’app web . L’azienda sta anche lavorando a un’app per fotocamera in modo che ogni foto che scatti possa essere automaticamente protetta dalla privacy. (E, ovviamente, modificato.) In futuro, la società potrebbe decidere di lavorare con una Apple o una Google per ottenere la sua tecnologia incorporata nelle app di fotografia predefinite su Android e iOS.

È un nuovo mondo coraggioso. E ci vorranno persone coraggiose per navigare nel futuro.

Di ihal