/

“Alarme Uigur”. Huawei testou software de reconhecimento facial para identificar pessoas da minoria

1

Um documento divulgado pelo jornal “The Washington Post” mostra que uma das maiores empresas de telecomunicações do mundo usou inteligência artificial para detetar pessoas uigur no meio de multidões.

De acordo com um documento assinado por representantes da Huawei e descoberto pela organização IPVM, e a que o “The Washington Post” teve acesso, a empresa tecnológica chinesa Huawei testou um software de reconhecimento facial, com capacidade para identificar pessoas da minoria oprimida Uigur no meio de multidões e alertar as autoridades governamentais.

Na China, a etnia muçulmana é perseguida e detida em campos de concentração.

Segundo essa informação, em 2018 a Huawei começou a trabalhar com a startup especializada em reconhecimento facial Megvii, no sentido de criar um sistema de câmaras assente na inteligência artificial que conseguisse examinar rostos e estimar a idade, sexo e etnia de cada um.

No caso do sistema detetar um Uigur, enviava um alarme à polícia da China, onde os cidadãos deste grupo étnico de fé muçulmana estão a ser detidos em massa e enviados para campos de concentração geridos pelo estado chinês.

O documento em questão foi removido do site da Huawei pouco depois do jornal norte-americano ter inquirido a empresa sobre o mesmo.

Apesar de este tipo de tecnologia se ter expandido pela polícia chinesa nos últimos anos, o novo documento mostra como a Huawei, o maior fabricante de equipamento de telecomunicações do mundo, tem contribuído diretamente para o seu desenvolvimento com câmaras, servidores e outras infraestruturas.

John Honovich, fundador da IPVM, que investiga equipamento de videovigilância, diz que este é um processo “sistemático”. Na opinião do especialista, o novo documento mostra o quão “assustadora” se tornou esta tecnologia discriminatória.

Maya Wang, investigadora da Human Rights Watch, realça que “a ambição de vigilância da China vai muito além da perseguição a uma minoria étnica”, alertando que este tipo de sistemas são bastante apetecíveis para outros países que querem oprimir e criminalizar minorias.

Há cerca de dois anos, cientistas de inteligência artificial chineses publicaram um artigo intitulado “Facial feature discovery for ethnicity recognition”, mostrando algoritmos que conseguiam distinguir os traços gerais dos rostos de pessoas uigur, coreanas e tibetanas.

Clare Garvie, uma investigadora no Center on Privacy and Technology que tem estudado software de reconhecimento facial, disse ao jornal que o “alarme Uigur” é um passo perigoso para permitir a descriminação étnica a uma larga escala.

“Há certas ferramentas que simplesmente não têm usos positivos e muitos negativos, e esta é uma delas”, disse. “Diga uma norma dos direitos humanos, e este sistema provavelmente representa uma violação dessa norma.”

A Huawei e a Megvii reconheceram a autenticidade do documento depois do “Washington Post” ter publicado a notícia. A Huawei disse que o sistema ainda não foi usado, e a Megvii garantiu que os seus sistemas não são usados para discriminar certas etnias.

ZAP //

1 Comment

Deixe o seu comentário

Your email address will not be published.