Questa settimana, il Parlamento europeo, l’organismo responsabile dell’adozione della legislazione dell’Unione europea (UE), ha approvato una risoluzione non vincolante che chiede il divieto dell’uso da parte delle forze dell’ordine della tecnologia di riconoscimento facciale nei luoghi pubblici. La risoluzione, che propone anche una moratoria sull’impiego di software di polizia predittiva, limiterebbe l’uso dell’identificazione biometrica remota a meno che non si tratti di combattere reati “gravi”, come rapimenti e terrorismo.

L’approccio è in contrasto con quello delle agenzie statunitensi, che continuano ad abbracciare il riconoscimento facciale anche alla luce di studi che mostrano il potenziale di pregiudizi etnici, razziali e di genere. Un recente rapporto dell’Ufficio di responsabilità del governo degli Stati Uniti ha rilevato che 10 filiali, tra cui i dipartimenti dell’agricoltura, del commercio, della difesa e della sicurezza interna, hanno in programma di espandere l’uso del riconoscimento facciale tra il 2020 e il 2023 poiché implementano fino a 17 diversi sistemi di riconoscimento facciale.

 
I sistemi commerciali di analisi del volto sono stati criticati da studiosi e attivisti allo stesso modo negli ultimi dieci anni, se non di più. La tecnologia e le tecniche, dalle pellicole color seppia alle fotocamere digitali a basso contrasto, spesso favoriscono la pelle più chiara, codificando i pregiudizi razziali negli algoritmi. In effetti, i benchmark indipendenti dei sistemi dei fornitori del  progetto Gender Shades e  altri hanno rivelato che le tecnologie di riconoscimento facciale sono suscettibili di una serie di pregiudizi esacerbati dall’uso improprio nel campo. Ad esempio, un rapporto del Center on Privacy and Technology di Georgetown Law descrive in dettaglio come la polizia fornisce dati difettosi al software di riconoscimento facciale, inclusi schizzi compositi e immagini di celebrità che condividono le caratteristiche fisiche con i sospetti.

Almeno tre persone negli Stati Uniti – tutti uomini di colore – sono state arrestate ingiustamente sulla base di scarse corrispondenze di riconoscimento facciale. A Detroit, che ha iniziato a pilotare il software di riconoscimento facciale nel 2017, la polizia nel 2020 ha utilizzato la tecnologia per condurre oltre 100 perquisizioni di sospetti e ha effettuato più di 80 arresti nei casi in cui è stata identificata una possibile corrispondenza, secondo il registro pubblico del dipartimento di polizia di Detroit . All’estero, la tecnologia di riconoscimento facciale utilizzata dalla polizia metropolitana del Regno Unito nel 2019 è risultata imprecisa per l’81% , prendendo di mira erroneamente quattro persone innocenti su cinque come sospetti ricercati, secondo un white paper dell’Università dell’Essex commissionato da Scotland Yard.

Tuttavia, si prevede che il mercato globale del riconoscimento facciale varrà $ 4,45 miliardi nel 2021 e molti governi chiedono a gran voce la tecnologia. Fornitori come AnyVision e Gorilla Technologies sono presunti fornitori delle prigioni taiwanesi e dei posti di blocco dell’esercito israeliano in Cisgiordania. Huawei ha testato un software che, secondo quanto riferito, potrebbe riconoscere il volto di un membro del gruppo di minoranza uigura. E Clearview, che ha raschiato 10 miliardi di foto segnaletiche dal web per sviluppare i suoi sistemi di riconoscimento facciale, afferma di avere 3.100 clienti tra forze dell’ordine e governo, tra cui l’FBI e la US Customs and Border Protection.

Secondo un sondaggio del Pew Research Center , nel 2019 solo la metà degli adulti statunitensi ha affermato di fidarsi delle forze dell’ordine per utilizzare il riconoscimento facciale in modo responsabile . Una pluralità di dipendenti del governo guarda con sospetto le tecnologie AI come il riconoscimento facciale. Secondo un recente sondaggio Gartner , solo il 53% dei dipendenti delle agenzie pubbliche di Asia Pacifico, Europa, America Latina e Nord America che hanno lavorato con le tecnologie AI ritiene che le tecnologie forniscano informazioni per svolgere meglio il proprio lavoro. Tra coloro che non hanno utilizzato l’intelligenza artificiale, la quota è stata del 34%, riflettendo la preoccupazione per l’impatto della tecnologia.

Al posto della regolamentazione federale degli Stati Uniti, alcuni stati, città e persino aziende hanno preso in mano la situazione. Oakland e San Francisco in California e Somerville, nel Massachusetts, sono tra le aree metropolitane in cui alle forze dell’ordine è vietato l’uso del riconoscimento facciale. In Illinois, le aziende devono ottenere il consenso prima di raccogliere informazioni biometriche di qualsiasi tipo, comprese le immagini facciali. New York ha recentemente approvato una moratoria sull’uso dell’identificazione biometrica nelle scuole fino al 2022 e i legislatori del Massachusetts e del Maine hanno avanzato una sospensionedell’uso da parte del governo di qualsiasi sistema di sorveglianza biometrica all’interno del Commonwealth. Più di recente, il Maine ha approvato un’iniziativa elettorale che vieta l’uso del riconoscimento facciale da parte della polizia e delle agenzie cittadine. E Amazon, IBM e Microsoft si sono autoimposte moratorie sulla vendita di sistemi di riconoscimento facciale.

Ma come evidenziato dalle aperture dell’UE, sta diventando chiaro che saranno necessarie linee guida più complete per regolamentare le tecnologie di riconoscimento facciale che entrano nell’uso del settore pubblico. I senatori degli Stati Uniti Bernie Sanders (I-Vt.), Elizabeth Warren (D-Mass.) e Ron Wyden (D-Ore.) tra gli altri hanno proposto rimedi legislativi, ma dato l’attuale stallo a Capitol Hill, è probabile che rimanere in stallo per il prossimo futuro.

Di ihal