Home / Società / Cosa è andato storto con Clearview AI?

Cosa è andato storto con Clearview AI?



Il software di riconoscimento facciale è stato oggetto di dibattito per molto tempo ormai. Nonostante le polemiche, le forze dell’ordine hanno utilizzato questo software basato sull’intelligenza artificiale per catturare criminali in tutto il mondo, e in particolare nelle grandi nazioni con leggi sulla privacy meno rigide. L’uso è prevalente nonostante il software potrebbe non funzionare correttamente se utilizzato su comunità etniche, giovani e persino donne. Una società che sta guidando i titoli delle notizie in questi giorni è Clearview AI fondata da un imprenditore australiano Hoan Ton-That.

Sebbene Clearview AI non abbia ideato un’app rivoluzionaria per il riconoscimento facciale, ciò che vende può essere considerato utile alle forze dell’ordine. La startup ha raccolto miliardi di immagini personali di persone in tutto il mondo senza la loro autorizzazione dal web e dai social media e le ha archiviate in un database. Quindi utilizza la tecnologia di riconoscimento facciale per confrontare le foto di detti sconosciuti con il suo database di fotografie.

Quindi, scatti una foto di una persona, la carichi e vedi la presenza pubblica di quella persona, oltre ai collegamenti a dove sono apparse quelle foto. Clearview afferma che è stato cancellato da Facebook, YouTube, Venmo e milioni di altri siti Web. Pensare che i dati pubblici non siano stati cancellati e indicizzati da entità più capaci è ingenuo e difficile da credere. Tuttavia, la grande maggioranza delle agenzie investigative negli Stati Uniti è stata clienti di Clearview AI, anche se la tecnologia non è innovativa non significa che l’applicazione non sia un problema per la società. Oltre 300 agenzie negli Stati Uniti utilizzano il software Clearview, comprese agenzie a livello federale, statale e locale.

Secondo Clearview , ha il software di identificazione facciale più accurato a livello globale, con un tasso di precisione del 98,6%. Ma la società aveva dichiarato in un documento che non significa che gli utenti avranno corrispondenze per il 98,6% delle ricerche, ma non otterranno quasi mai un falso positivo. Gli utenti ottengono una corrispondenza corretta o nessun risultato e la percentuale di successo è compresa tra il 30 e il 60%. Attualmente, una foto dovrebbe funzionare anche se una persona si fa crescere la barba, indossa gli occhiali o appare in condizioni di scarsa illuminazione.

Il contraccolpo è iniziato nel 2020
Clearview AI ha dovuto affrontare molti problemi nel 2020 stesso. All’inizio dell’anno, Twitter ha inviato una lettera di cessazione e desistere all’avvio e ha chiesto loro di eliminare tutti i dati raccolti, seguiti da una richiesta simile da YouTube e Facebook. Il procuratore generale del New Jersey Gurbir Grewal ha inviato una lettera di cessazione e desistere a Clearview AI, in quanto la società ha incluso le foto del procuratore generale nel suo video promozionale. Successivamente, Grewal ha proibito l’uso della tecnologia in tutte le contee del New Jersey e ha affermato che lo stato aveva bisogno di un’ulteriore comprensione di ciò che stava accadendo con la tecnologia di riconoscimento facciale prima di utilizzare tali prodotti per risolvere casi penali.


Nel febbraio 2020, diverse fonti hanno riferito che Clearview AI aveva subito una violazione dei dati, esponendo il suo elenco di clienti. L’avvocato di Clearview, Tor Ekeland, ha dichiarato che il difetto è stato corretto. Nell’aprile 2020, TechCrunch ha scritto una società di sicurezza chiamata SpiderSilk ha trovato i repository di codice sorgente di Clearview che erano stati esposti a causa di un’impostazione di sicurezza dell’utente non configurata correttamente. Chiavi e credenziali segrete, tra cui cloud storage e token Slack, erano state violate. Parlando di sicurezza, Gizmodo ha scopertoIl pacchetto dell’applicazione Clearview per Android in un presunto bucket Amazon S3 non protetto, anche se dovrebbe essere accessibile privatamente ai soli client. La società ha dichiarato in precedenza di aver completato più revisioni indipendenti sulla sicurezza e ha un team dedicato alla sicurezza informatica che monitora e protegge la sicurezza degli account e dei dati degli utenti.

Clearview in precedenza ha affermato di fornire l’accesso al proprio database alle forze dell’ordine per la risoluzione dei casi penali. Ma dopo la violazione dei dati, è stato riscontrato che la startup ha venduto la propria sottoscrizione software a società private che sono state trovate nell’elenco dei suoi clienti. La violazione dei dati non ha solo rivelato le attività dell’azienda, ma ha anche dimostrato il suo debole sistema di sicurezza informatica nonostante fosse in possesso di tali dati personali sensibili.


Dopo che la startup ha annunciato il suo piano di espansione verso l’esterno degli Stati Uniti, un rapporto dei media ha scoperto che la startup stava pianificando di vendere la sua tecnologia ai “regimi autoritari” in Asia e Sud America, così come altre nazioni in Europa che devono rispettare il GDPR. In effetti, il comitato europeo per la protezione dei dati ha recentemente dichiarato che l’uso di un servizio come Clearview AI da parte delle forze dell’ordine nell’Unione europea probabilmente non sarebbe conforme alla normativa europea sulla protezione dei dati . Ora, le autorità britanniche e australiane per la protezione dei dati hanno avviato un’indagine sulla società di tecnologia di riconoscimento facciale Clearview AI.

“La tecnologia di Clearview è un vero scenario da incubo. Hanno accumulato un database di oltre 3 miliardi di impronte di persone provenienti da questo paese senza consenso, senza dircelo. E lo stanno usando per commercializzare uno strumento incredibilmente pericoloso per la polizia, le società private e i privati ​​per rintracciarci, seguirci e sorvegliarci ”, ha dichiarato Nathan Freed Wessler, avvocato dello staff, The American Civil Liberties Union (ACLU) Discorso, privacy e Progetto tecnologico in un’intervista . ACLU ha anche citato in giudizio l’avvio del riconoscimento facciale per violazione dell’Illinois Biometric Information Privacy Act (BIPA), affermando che l’azienda ha accumulato e archiviato illegalmente dati sui cittadini dell’Illinois senza la loro cognizione o consenso e poi ha guadagnato soldi vendendo il suo software alla legge forze dell’ordine e società private.

Clearview ha affermato che stava fornendo accesso alle forze dell’ordine solo negli Stati Uniti e in Canada, ma è emerso che ci sono un totale di 26 paesi al di fuori degli Stati Uniti, dove l’azienda sta vendendo il proprio software alle forze dell’ordine e alle organizzazioni di polizia, tra cui Lituania, Malta , Paesi Bassi, Norvegia, Portogallo, Belgio, Italia, Lettonia, Danimarca, Finlandia, Francia, Irlanda, Slovenia, Spagna, Svezia, Svizzera e Regno Unito. L’elenco dei clienti include anche molte società private. “Siamo in un profondo momento di protesta contro l’ingiustizia razziale e gli abusi della polizia. L’ultima cosa di cui abbiamo bisogno è questa pericolosa tecnologia saldata come uno strumento per identificarci e seguirci in tutto il mondo “, ha detto Wessler in questo video .

Top

Utilizzando il sito, accetti l'utilizzo dei cookie da parte nostra. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi