Home / Intelligenza artificiale pericolo / Un Rapporto Rivela che in USA c’è una totale mancanza di supervisione da parte delle agenzie federali sull’uso del software di riconoscimento facciale acquistato da fornitori di terze parti. 

Un Rapporto Rivela che in USA c’è una totale mancanza di supervisione da parte delle agenzie federali sull’uso del software di riconoscimento facciale acquistato da fornitori di terze parti. 

Tutto sbagliato con i software di riconoscimento facciale
 
Un rapporto del GAO accende un nuovo dibattito sulla supervisione e l’uso della tecnologia di riconoscimento facciale
 
Iprogrammi di intelligenza artificiale richiedono una supervisione? Un nuovo dibattito ha acceso dopo la pubblicazione di un rapporto del Government Accountability Office degli Stati Uniti. Rivela una totale mancanza di supervisione da parte delle agenzie federali sull’uso del software di riconoscimento facciale acquistato da fornitori di terze parti. 

Il rapporto analizza in dettaglio i software utilizzati dalle agenzie federali e i dataset su cui sono formati. Venti agenzie hanno ammesso di utilizzare software di riconoscimento facciale in qualche forma senza supervisione e si sono principalmente affidate a database di immagini gestiti dal Dipartimento della Difesa e dal Dipartimento della Sicurezza Nazionale. 

 

Queste tecnologie sono state utilizzate di recente per identificare persone su vasta scala, come i manifestanti del movimento Black Lives l’anno scorso e i rivoltosi dell’attacco a Capitol Hill quest’anno. Menziona che le agenzie non avevano idea del software che usavano o con cui avevano familiarità. Ciò amplifica i rischi per la privacy e la sicurezza inerenti all’uso di tali tecnologie. 

Necessità di responsabilità e supervisione
I sistemi di riconoscimento facciale non sono accurati nel mondo reale. Può essere accurato in condizioni non vincolate, ma identificare le persone dalle telecamere stradali non è l’ideale. Il software è noto per commettere errori e identificare le persone sbagliate. Sono più inaffidabili e di parte razziale di quanto temessimo. Ad esempio, Rekognition di Amazon una volta ha identificato Oprah Winfrey come un uomo. Un altro software di riconoscimento facciale ha abbinato le immagini di 26 membri del Congresso degli Stati Uniti con una foto segnaletica di un criminale. 

Un rapporto del National Institute of Standards and Technology ha trovato prove empiriche che la maggior parte degli algoritmi di riconoscimento facciale presenta caratteristiche demografiche che possono deteriorare l’accuratezza del software in base a razza, sesso ed età. Un’analisi di tre software commerciali di riconoscimento facciale ha mostrato un tasso di errore del 34% per le donne dalla pelle scura, 49 volte superiore a quello degli uomini bianchi di mezza età.

Un altro studio ha rivelato che le persone asiatiche e africane hanno circa cento volte più probabilità di essere erroneamente identificate rispetto alle loro controparti bianche. I nativi americani avevano il più alto tasso di falsi positivi tra tutte le etnie. 

Errori di identificazione da parte di tale software potrebbero portare ad arresti, falsi sospetti e minacce. Fa nascere la necessità di una verifica umana prima di agire.

Perché gli algoritmi si identificano erroneamente?
Quattro fasi sono coinvolte nel processo di riconoscimento facciale: rilevamento facciale, analisi facciale, conversione dell’immagine in dati e identificazione di una corrispondenza. Il minimo errore in qualsiasi fase può portare a problemi significativi. 

I software di riconoscimento facciale funzionano su Deep Convolutional Neural Networks (DCNN) . Il processo di training di qualsiasi algoritmo di deep learning è la chiave delle sue prestazioni e dei pregiudizi che sviluppa. È simile ad altri corsi di apprendimento automatico, tranne per il fatto che vengono forniti dati etichettati. Le facce nei set di dati sono etichettate e la valutazione dei set di dati viene eseguita tramite una funzione di perdita. Viene addestrato come una normale rete di classificazione e quindi ottimizzato per le codifiche di output.

Il processo di formazione di DCNN è anche la sua più grande sfida e svantaggio. Tale deep learning richiede una grande quantità di dati su cui addestrare con grandi set di dati contenenti variazioni sufficienti per generalizzare tutti i campioni invisibili. Per lo più i set di dati sono distorti e includono più immagini di persone caucasiche.  

 

Un’altra sfida sorge quando le persone cambiano aspetto. Diverse cause legate alle apparenze possono essere:

Illuminazione: la luce su una persona può influenzare le operazioni del software in quanto influenza l’intensità del colore in un pixel. Una singola immagine della stessa persona sotto una luce diversa può mostrare più differenze tra loro piuttosto che con un altro soggetto.
Espressioni e blocchi facciali: le espressioni di una persona, i peli del viso o qualsiasi cosa che possa nascondere o modificare l’aspetto possono rendere inefficace l’algoritmo. 
Variazione di posa: l’algoritmo non identifica bene quando l’immagine della stessa persona si presenta in una posa diversa o con un’angolazione completamente diversa.
La creazione di un programma in grado di creare modelli di immagini e la formazione della rete in grado di mitigare questi problemi. Tuttavia, può essere un compito significativo includere ogni variazione di posa in un’immagine.

Recenti sviluppi 
I recenti sviluppi nel campo delle unità di elaborazione grafica (GPU) convenienti e potenti hanno attirato l’attenzione principale della ricerca sullo sviluppo di reti neurali sempre più profonde e sulla necessità di bilanciare l’accuratezza con i vincoli di tempo e risorse. Tuttavia, nonostante gli sviluppi, il raggiungimento di un’accuratezza all’avanguardia è ostacolato dalla dipendenza da database di grandi dimensioni.

Per indurre un rapido sviluppo della tecnologia, l’obiettivo dovrebbe essere la riduzione dell’elevato costo computazionale dei DCNN e della loro dipendenza dai database. Anche la riduzione al minimo dei tempi di formazione è un’area che richiede attenzione, così come l’architettura di rete che trarrebbe vantaggio dalla selettività del programma. L’Ufficio per la responsabilità del governo degli Stati Uniti suggerisce che la supervisione umana può ridurre l’identificazione errata fino al raggiungimento della perfezione nel riconoscimento facciale.

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi