A tecnologia não é infalível e o seu uso levanta questões sobre a privacidade dos cidadãos. A empresa Clearview AI quer ter 100 mil milhões de imagens de rostos na base de dados no próximo ano.
A tecnologia de reconhecimento facial está a ser usada numa guerra pela primeira vez. Pode mudar o paradigma na Ucrânia, onde está a ser usada para identificar os mortos e devolvê-los às famílias. Mas se falharmos a lidar com as éticas desta tecnologia agora, podemos encontrar-nos num campo de minas para os direitos humanos.
O Ministério da Defesa da Ucrânia está a usar o software de reconhecimento facial Clearview AI desde Março de 2022 para recolher provas de crimes de guerra e identificar os mortos — tanto russos como ucranianos.
O Ministério da Transformação Digital da Ucrânia disse que está a usar a tecnologia Clearview AI para dar aos russos a oportunidade de viverem o “verdadeiro custo da guerra” e para deixarem as famílias saber que se querem encontrar os corpos dos seus entes queridos, eles são “bem-vindos na Ucrânia”,
A Ucrânia está a ter um acesso livre ao software. Também está a ser usado em pontos de controlo e pode ajudar a reunir os refugiados com as suas famílias.
As críticas sobre a privacidade
No mês passado, no entanto, o Escritório do Comissário de Informação do Reino Unido (ICO) aplicou uma multa à Clearview AI de mais de 7,5 milhões de libras por recolher imagens de pessoas na internet e nas redes sociais.
A empresa foi ordenada para apagar as imagens e parar de as obter usando os dados pessoais de residentes no Reino Unido disponíveis publicamente na internet. Originalmente, a multa era de 17 milhões de libras.
De acordo com o ICO, dado o grande número de utilizadores de redes sociais no Reino Unido, é provável que a base de dados da Clearview AI inclua uma quantidade significativa de imagens recolhidas sem o consentimento.
Um advogado da Clearview AI, Lee Wolosky, afirmou: “Apesar de apreciarmos o desejo do ICO de reduzir a sua penalização monetária sobre a Clearview AI, mesmo assim mantemos a posição de que a decisão de cobrar qualquer multa é incorreta de acordo com a lei. A Clearview AI não está dentro da jurisdição do ICO e a Clearview AI não faz negócios no Reino Unido neste momento”.
A Clearview AI afirmou que quer ter 100 mil milhões de imagens de rostos na sua base de dados até ao início de 2023 — o que equivale a 14 por cada pessoa na Terra. Fotos múltiplas da mesma pessoa melhorar a precisão do sistema.
Segundo o seu site, a tecnologia de reconhecimento facial ajuda as autoridades a combater o crime e as empresas de transportes, bancos e de outros ramos comerciais a detetar roubos, prevenir fraudes e verificar identidades.
O Buzzfeed noticiou em Fevereiro de 2020 que várias forças policiais britânicas já usaram a Clearview AI. Uma porta-voz da empresa afirmou que a polícia não teve acesso à tecnologia, mas os representantes da Agência Nacional de Crime da Polícia Metropolitana não confirmaram nem negaram o seu uso. No entanto, em Março de 2022 a faculdade de polícia publicou novas diretivas para as forças seguirem no reconhecimento facial em direto.
O governo britânico planeia substituir leis importantes de direitos humanos como uma nova lei de direitos que pode dificultar e até impossibilitar os desafios a decisões judiciais tomadas com base em provas recolhidas com inteligência artificial.
De acordo com o grupo de ativismo Liberty, a lei deve ter um impacto desproporcional em comunidades que são mais policiadas, e pode criar classes diferentes de reclamantes de acordo com os seus comportamentos passados.
Uma ferramenta de guerra
A diretora executiva da Clearview AI, Hoan Ton-That, disse que o software de reconhecimento facial permitiu às forças ucranianas e aos responsáveis do governo guardar mais de 2 mil milhões de imagens de VKontakte, um serviço de redes sociais russas. Hoan refere que o software ajuda os ucranianos a identificar os soldados mortos mais eficientemente do que as impressões digitais e que funciona mesmo que o rosto do soldado esteja desfigurado.
Mas há provas contraditórias sobre a eficácia do software. De acordo com o Departamento de Energia dos Estados Unidos, a decomposição de um rosto pode reduzir a precisão do software. Por outro lado, as pesquisas científicas recentes mostraram resultados relativos à identificação dos mortos que eram semelhantes ou melhores do que as feitas por humanos.
A pesquisa sugere que as impressões digitais, os registos dentários e o ADN ainda são as formas mais confiáveis de identificação. Mas são ferramentas para profissionais treinados, enquanto que o reconhecimento facial por ser usado por qualquer pessoa.
Outro problema identificado pelo estudo é que o reconhecimento facial pode ligar erradamente duas imagens ou falhar na correspondência de fotos da mesma pessoa. Na Ucrânia, as consequências de um possível erro com a IA podem ser desastrosas. Um civil inocente pode ser morto se for incorretamente identificado como um soldado russo.
Um historial polémico
Em 2016, Hoan começou a recrutar engenheiros de ciências informáticas para criar o algoritmo da Clearview AI. Mas só em 2019 é que a empresa americana começou a dar discretamente o seu software à polícia americana.
Em Janeiro de 2020, o The New York Times publicou a reportagem ‘The Secretive Company That Might End Privacy as We Know It’. O artigo levou a que mais de 40 organizações de direitos civis enviassem uma carta ao Conselho de Vigilância da Privacidade e das Liberdades Civis e a quatro comités congressistas, exigindo a suspensão do software de reconhecimento facial da Clearview AI.
Em Fevereiro de 2020, quando foi divulgada a lista de clientes da empresa, o Buzzfeed revelou que o software estava a ser usado em mais de 2200 departamentos de polícia, agências do governo e empresas em 27 países.
Já a 9 de Maio de 2022, a Clearview AI concordou em parar a venda de acesso à sua base de dados a indivíduos e empresas nos EUA, depois da União Americana das Liberdades Civis ter aberto um processo onde a acusa de quebrar a lei de privacidade do Illinois.
Nos últimos dois anos, as autoridades de proteção de dados no Canadá, em França, Itália, Áustria e Grécia multaram, investigaram ou proibiram a Clearview AI de recolher imagens de pessoas.
A não ser que sejam adotadas leis que governam o uso do reconhecimento facial, o uso desta tecnologia pela polícia arrisca quebrar os direitos à privacidade, a proteção de dados e as leis da igualdade.
ZAP // The Conversation