/

Robô foi jurado em concurso de beleza e acabou por ser racista

Um concurso de beleza on-line teve como júri um sistema de Inteligência Artificial. A experiência, no entanto, deu para o torto: os vencedores foram maioritariamente brancos, já que a máquina não conseguia analisar devidamente os rostos de outras etnias.

A criação de uma máquina inteligente depende dos conhecimentos dos seus criadores e das suas indicações, e sem uma análise cuidadosa essas máquinas podem absorver as mesmas tendências que eles – negativas ou positivas.

Um concurso de beleza on-line chamado Beauty.ai, dirigido pela Youth Laboratories (empresa que tem como apoiadores grandes companhias como Nvidia e Microsoft) recebeu 600 mil fotos de perfil afirmando que seriam avaliadas por um programa baseado em Inteligência Artificial para selecionar as mais atraentes.

O algoritmo iria avaliar, de forma equilibrada, as rugas, simetria facial, presença de acne e manchas, etnia e idade aparente. No entanto, parece que a etnia foi o fator preponderante na escolha, já que das 44 pessoas escolhidas, 36 eram brancas.

As ferramentas utilizadas para o julgamento na competição foram baseadas em deep learning ou redes neurais, um tipo de Inteligência Artificial que aprende os padrões a partir da análise de maciças quantidades de dados.

Neste caso, os algoritmo deve ter analisado, por exemplo, milhares de milhões de fotos de pessoas com rugas e outras sem. Aos poucos, o algoritmo vai aprendendo as diferenças para conseguir diferenciar quando está a analisar imagens parecidas.

No entanto, se o algoritmo utiliza uma base de dados para aprendizagem composta por pessoas brancas, a sua precisão de escolha recai sempre em pessoas brancas, quando comparadas com as não brancas. Como 75% dos participantes eram brancos e descendentes de europeus, teoricamente isso não afetaria o resultado, já que, para a máquina, as fotos não seriam de pessoas, mas sim apenas um amontoado de pixels.

No entanto, quando os pixels não seguiam um determinado padrão aprendido, estes podiam ser descartados como uma amostra má ou acidentalmente punidos pelo julgamento do algoritmo.

Ou seja, a beleza nas fotos estava a ser julgada por um padrão, mas esse padrão tinha sido construído maioritariamente por um agregado de pessoas brancas.

Alex Zhavoronkov, do Beauty.ai, admite que a cor das pessoas acabou por fazer diferença no julgamento da máquina, já que para alguns grupos de pessoas faltaram dados amostrais suficientes para treinar as redes neurais.

A solução para esse problema seria uma melhor seleção dos dados utilizados na fase de aprendizagem. Se o algoritmo for apresentado a um conjunto maior e mais diversificado de pessoas, estará mais bem capacitado para reconhecê-los posteriormente.

“Se um sistema é treinado com base em fotos de pessoas predominantemente brancas, provavelmente terá dificuldades em identificar rostos não-brancos”, diz Kate Crawford, investigadora principal do Centro de Pesquisa da Microsoft de Nova Iorque.

“Assim, a inclusão de diversas etnias é realmente importante nesta construção da Inteligência Artificial. Caso contrário, corre-se o risco de construir uma máquina que espelha uma visão estreita e privilegiada da sociedade, com os seus antigos preconceitos e estereótipos familiares”.

A Beauty.ai vai realizar um novo concurso de beleza baseado em Inteligência Artificial em outubro, mas ainda não se sabe se a base de dados utilizada será a mesma ou se será atualizada.

 

Experiências realizadas com o Google Deep Dream também tiveram problemas semelhantes. Os investigadores desenvolveram algoritmos para processar imagens de edifícios, paisagens e obras de arte famosas para aumentar os padrões encontrados. Os resultados foram fractais pontuadas por faces de cães.

Posteriormente, descobri-se que o banco de imagens utilizado para aprendizagem do sistema tinha milhares de fotos de cães, fazendo com que a Inteligência Artificial se tenha tornado, acidentalmente, especialista em reconhecer padrões caninos em vários lugares.

Canal Tech

Deixe o seu comentário

Your email address will not be published.