LOS ANGELES, CA - FEBRUARY 18: A Los Angeles police officer wear an AXON body camera during the Immigrants Make America Great March to protest actions being taken by the Trump administration on February 18, 2017 in Los Angeles, California. Protesters are calling for an end to stepped up ICE raids and deportations, and that health care be provided for documented and undocumented people. (Photo by David McNew/Getty Images)

Axon (ex Taser) afferma che il riconoscimento facciale su camme del corpo di polizia non è etico

Basato su una relazione della sua commissione etica dell’IA

Axon ( formalmente conosciuto come Taser ) ha spostato il suo business verso le telecamere del corpo per gli ufficiali di polizia negli ultimi anni, ma oggi, la società sta facendo un grande cambiamento. Su consiglio del suo comitato etico dell’IA, “Axon non commercializzerà prodotti per il face matching sulla nostra fotocamera per il corpo”, ha annunciato oggi la società in un post sul blog .

Lo scorso aprile Axon ha fondato il proprio comitato per l’etica per l’intelligenza artificiale e la polizia per aiutare a consigliare l’azienda su come sviluppare prodotti eticamente. Il primo rapporto del consiglio è stato pubblicato oggi, con particolare attenzione a consigliare Axon di non usare la tecnologia di riconoscimento facciale.

“LA TECNOLOGIA DI RICONOSCIMENTO FACCIALE NON È AL MOMENTO SUFFICIENTEMENTE AFFIDABILE PER GIUSTIFICARE ETICAMENTE IL SUO UTILIZZO SU FOTOCAMERE INDOSSATE DAL CORPO.”
Secondo la relazione della commissione, “la tecnologia di riconoscimento facciale non è al momento sufficientemente affidabile per giustificare eticamente il suo uso su fotocamere indossate dal corpo”. Cita che, per lo meno, una tecnologia più accurata che “funziona egualmente bene su razze, etnie, sessi” e altri gruppi di identità “sarebbero necessari, assumendo che la tecnologia di riconoscimento facciale per le telecamere del corpo di polizia possa mai essere considerata etica, una conversazione che il consiglio ha iniziato a esaminare.

Il consiglio inoltre si è espresso a favore di consentire agli utenti (ad esempio, agenti di polizia) di personalizzare il software di riconoscimento facciale se fa parte dei prodotti futuri al fine di prevenire l’uso improprio, raccomandando anche che qualsiasi giurisdizione che pianifica di utilizzare la tecnologia di riconoscimento facciale dovrebbe farlo attraverso “processi aperti, trasparenti, democratici”.

La decisione di Axon di non mettere il software di corrispondenza facciale sulle telecamere del suo corpo di polizia non si spinge fino ai suggerimenti del consiglio. Il blog post della società chiarisce che Axon continuerà a ricercare e perseguire la tecnologia di corrispondenza del volto, compreso uno sforzo per de-biasare gli algoritmi in futuro. Ciò implica che la società spera ancora che si tratti di “quando” anziché “se” è in grado di aggiungere la tecnologia ai suoi prodotti.

Il fatto che Axon – un importante fornitore di telecamere della polizia negli Stati Uniti – stia allontanandosi dalla tecnologia è comunque significativo, data la natura controversa della tecnologia. All’inizio di quest’anno, San Francisco è diventata la prima città negli Stati Uniti a vietare alle agenzie governative di utilizzare software di corrispondenza facciale e Microsoft ha negato il software alle forze dell’ordine, citando le preoccupazioni dei diritti umani.

Allo stesso tempo, Amazon è stata messa sotto fuoco l’anno scorso per aver fatto esattamente questo, vendendo il suo software di riconoscimento alla polizia a Orlando e nella contea di Washington nell’Oregon, mentre la città di New York è stata oggetto di abusi del suo software di riconoscimento facciale all’inizio di quest’anno.

Di ihal