Um software da rede social Facebook foi desativado, depois de ter identificado um vídeo com pessoas negras com o tópico “primatas”. A empresa pediu desculpa e vai analisar o sucedido, naquele que é mais um episódio de erro de programação relacionado com o reconhecimento facial de pessoas não brancas.
Um porta-voz do Facebook reconheceu que se tratou de “um erro claramente inaceitável” e disse que o software de recomendação envolvido foi retirado da rede social. “Pedimos desculpa a todos aqueles que possam ter visto estas recomendações ofensivas”, disse o Facebook em resposta a uma pergunta da AFP.
“Desativámos toda a funcionalidade de recomendação de tópicos assim que nos apercebemos que isto estava a acontecer para podermos investigar a causa e evitar que isto volte a acontecer”. Vários softwares de reconhecimento facial têm sido muito criticados por defensores dos direitos civis, que apontam problemas de exatidão, particularmente no que diz respeito a pessoas que não são brancas.
Este caso foi espoletado por um vídeo de tabloide britânico Daily Mail com homens negros, onde era mostrada uma mensagem automática a perguntar se o utilizador gostaria de “continuar a ver vídeos sobre Primatas”. O vídeo de junho de 2020 em questão tinha o título “Homem branco chama polícias devido a homens negros na marina”.
Uma captura de ecrã da recomendação foi partilhada no Twitter pelo antigo gestor de design de conteúdos do Facebook Darci Groves. “Esta mensagem de ‘continuar a ver’ é inaceitável”, disse Groves, apontando a mensagem a antigos colegas no Facebook.
ZAP // AFP