//

Motores de busca “politicamente corretos”: algoritmos de opressão contra desigualdade de género

3

Com o intuito de combater as desigualdades sociais – nomeadamente as de género -, os motores de busca, como o Google, têm vindo a mudar algumas políticas nos últimos anos, deixando, por exemplo, de oferecer sugestões em pesquisas relacionados com o termo ‘mulher’.

A decisão por parte da Google de deixar de apresentar sugestões para pesquisas relacionadas com a palavra ‘mulher’ foi tomada após uma polémica à volta do preenchimento automático, exposta numa campanha criada pela Organização das Nações Unidas (ONU), em parceria com a agência de publicidade Memac Ogilvy & Mather Dubai.

“As mulheres não devem ter direitos”, “as mulheres não devem votar” e “as mulheres não devem trabalhar”, foram algumas das sugestões sexistas e discriminatórias que motivaram a campanha e que foram retiradas do Google Instant – serviço de preenchimento automático que sugere letras e palavras para concluir uma consulta.

Caso se procurasse por “mulheres não podem”, o Google preenchia automaticamente com sugestões como “conduzir”, “ser confiáveis” ou “falar na igreja”. Por “mulheres não devem”, aparecia “ter direito a voto” e “trabalhar”. Já na pesquisa “as mulheres devem”, as mesmas passavam por “ficar em casa”, “ser escravas” ou “estar na cozinha”.

Digitava-se “mulheres precisam” e surgiam frases como “ser colocadas nos seus lugares”,”conhecer o seu lugar”, “ser controladas” e “ser disciplinadas”.

Essa realidade, contudo, mudou. Atualmente, ao escrever no motor de busca do Google “as mulheres devem”, é possível verificar que não são apresentadas sugestões, ao contrário do que acontece quando a pesquisa começa por “homens devem”.

E não precisamos ir tão longe: caso escrevamos somente o termo “mulher”, ou “mulheres”, o motor de busca não apresenta qualquer sugestão. Em oposição, se escrevermos “homem”, ou “homens”, surgem de imediato diversas.

Uma das especialistas que abordou o tema das sugestões sexistas fornecidas pelo preenchimento automático do Google foi Safiya Noble, professora na Annenberg School of Communication, da University of Southern California, nos Estados Unidos (EUA). O estudo que vem a desenvolver, desde 2011, deu origem ao livro “Algorithms of Oppression” (Algoritmos de Opressão).

Numa entrevista ao Público, em março de 2018, a autora – que há muitos anos tinha percebido que não podia confiar no Google para procurar informação sobre ‘mulheres negras’ sem ser bombardeada por imagens obscenas e estereótipos -, disse que é necessário “falar sobre os algoritmos que nos oprimem”.

“Há uns anos, ‘raparigas negras’, para o Google, era sinónimo de pornografia”, problema que se estendia às ‘meninas’, ‘mulheres’ e ‘raparigas’ latinas ou asiáticas.

A escritora Safiya Noble, autora do livro “Algorithms of Oppression”

Na altura em que o facto foi revelado, refere o Público, o Google responsabilizou os algoritmos, “uma palavra que viria a tornar-se cada vez mais popular em comunicados sobre erros de grandes empresas tecnológicas”. No final de 2012, a empresa atualizou manualmente o algoritmo, com o intuito de dar menos foco à pornografia.

“As mulheres e as raparigas não têm sorte nos motores de busca, isso é óbvio. O meu objetivo não é mostrar isto, mas desvendar as formas de pensar e o poder que os movem”, explicou Safiya Noble. “As grandes empresas adoram escrever que não foram as responsáveis, que é o algoritmo. Mas, então, porque é que dependemos dele?”.

Segundo um dos exemplos presentes no seu livro, nos EUA, pesquisar por “crimes de negros contra brancos” ainda leva a páginas extremistas contra a população negra e judeus, mas omite informação de fontes legais onde as estatísticas mostram que a maioria dos crimes contra brancos nos EUA é cometida por brancos.

“Apesar de alguns motores de busca esconderem resultados relacionados com ‘pornografia’ e ‘sexo explícito’, este tipo de resultados podem surgir – mesmo quando a pessoa não o queira”, lê-se no artigo do Público.

Safiya Noble nota que os algoritmos que discriminam de forma positiva e evitam palavras “problemáticas” não são a excepção ao problema. “A ideologia de ‘não vejo cores’ é perigosa, porque suprime elementos únicos da cultura e da etnia de alguém”.

Apesar de muitos dos exemplos do livro se centrarem no Google, diz que não vê o serviço como o “mau da fita”: “precisava de um foco para os meus exemplos. Se tentamos falar de tudo, não falamos de nada e o Google é o motor de busca dominante”, no entanto, “não devia ser o primeiro passo numa pesquisa sobre notícias ou cultura”.

A autora acredita que parte do problema prende-se ao facto de se saber pouco sobre a lógica do algoritmo do motor de busca. “É impossível ter respostas certas sobre o que influencia estes algoritmos e os humanos que os constroem, já que o assunto não está sujeito a discussão, excepto quando o criticamos”, esclarece.

Uma das soluções, refere a professora, passa por “tirar o poder aos algoritmos” com um motor de busca em que as pessoas possam escolher se querem ver conteúdo filtrado para não mostrar racismo, homofobia, conteúdo pornográfico ou sexista. Ou se, pelo contrário, querem ver tudo.

Google e os sucessivos pedidos de desculpa

São vários os pedidos de desculpa públicos emitidos pela Google ao longo do tempo, devido a sugestões anti-semitas, sexistas e racistas que apareciam no seu motor de busca. Em dezembro de 2016, o Guardian avançou que, no seguimento de mais um desses casos, a empresa tinha alterado as definições de preenchimento automático.

Como resposta, um porta-voz da empresa disse, na altura, que os resultados das pesquisas são um reflexo do conteúdo presente na Internet. “Isso significa que, às vezes, descrições desagradáveis podem afetar os resultados da pesquisa para uma determinada consulta. Esses resultados não refletem as opiniões ou crenças da Google”.

“Fazemos o melhor possível para evitar que termos ofensivos, como pornografia e incitação ao ódio, apareçam, mas reconhecemos que o preenchimento automático não é uma ciência exata e estamos sempre a trabalhar para melhorar os nossos algoritmos”, frisou.

O mesmo artigo do Guardian indica que a empresa já se tinha desculpado, em maio de 2015, quando a Casa Branca foi devolvida como resultado de buscas por “nigga house” (apesar de gíria, significa “casa dos pretos”, numa tradução livre) nos mapas do Google, durante a presidência de Barack Obama.

https://twitter.com/iambomanix/status/600700825837576194?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E600700825837576194&ref_url=https%3A%2F%2Fwww.huffingtonpost.com%2F2015%2F05%2F19%2Fwhite-house-nigga-house_n_7323690.html

Embora se tenha recusado a esclarecer o que aconteceu, um porta-voz da Google afirmou que alguns “resultados inadequados” estavam a surgir no Google Maps. “Pedimos desculpas por qualquer ofensa que isso possa ter causado”, disse.

Em abril do mesmo ano, a empresa voltou a pedir desculpas depois de uma pesquisa por “penteados profissionais para o trabalho” mostrar resultados de imagens com mulheres predominantemente negras com cabelo natural, enquanto a busca por imagens “profissionais” retornava fotografias de mulheres brancas e bem penteadas.

Três meses depois, uma fotografia sugerida automaticamente no Google classificava dois adolescentes negros como “gorilas”. A empresa desculpou-se mais uma vez, informando que estava a trabalhar em “correções de longo prazo” em torno do reconhecimento de rostos de pele escura, bem como nas legendas de imagens.

‘Big Tech’ e a suposta influência na política

Em maio 2018, o Google inseriu o termo “nazismo” como parte da ideologia do Partido Republicano – menos de uma semana antes das eleições primárias -, devido a um ato de vandalismo no Wikipedia, que não foi detetado pelo mecanismo de busca.

Segundo o artigo do Vice Motherboard, os republicanos questionaram os executivos, em várias audiências no Congresso, acerca da influência das ‘Big Tech’ (grandes empresas de tecnologia) nas eleições de 2016, e sobre o facto de “as vozes da direita estarem a ser silenciadas através dos seus algoritmos e políticas”.

Certo é que, de acordo com uma notícia do Search Engine Land, de junho de 2016, o preenchimento automático do Google oferecia uma sugestão para “Lying Ted” (Ted a mentir) quando era digitado no motor de busca o termo “lying” (a mentir). “Lying Ted” era o apelido que Donald Trump, na altura candidato republicano à presidência dos Estados Unidos, colocou ao seu antigo rival, Ted Cruz.

Porém, quando se digitava o termo “crooked” (desonesto), não era sugerido “Crooked Hillary” (Hillary desonesta), apelido que Trump atribuiu à sua rival democrata Hillary Clinton, durante o mesmo período. Essa situação gerou alguma polémica, sugerindo que o motor de busca estaria a filtrar, deliberadamente, esses termos, favorecendo a candidata.

Peter Foley / EPA

O atual presidente dos Estados Unidos, Donald Trump, e a ex-candidata democrata, Hillary Clinton

Na altura, a Google esclareceu que as previsões de preenchimento automático são produzidas com base em vários fatores, incluindo a popularidade dos termos de pesquisa, e que os seus sistemas são atualizados periodicamente. “Não há diferença na forma como os nossos filtros de remoção operam entre os candidatos”.

Apesar destas várias declarações e pedidos de desculpa por parte da empresa, outras situações controversas continuam a surgir, algumas delas envolvendo antigos chefes de Estado norte-americanos, bem como o atual presidente.

Trump no Google: “american idiot”?

Segundo um artigo do Vice Motherboard, de julho de 2018, o rosto do presidente norte-americano Donald Trump é o primeiro resultado que aparece quando se pesquisam por imagens no Google com o termo “idiota”. A sua imagem é também encontrada na segunda, na terceira e quarta posição. Navegando pela página, o seu rosto continua a aparecer “com uma regularidade incomum”.

Este fenómeno iniciou-se quando manifestantes britânicos conseguiram colocar a canção “American Idiot“, da banda de punk rock Green Day, no topo das mais ouvidas durante a semana em que Trump visitou o Reino Unido. Utilizadores do Reddit, por sua vez, começaram a manipular o algoritmo do Google, propositadamente, de forma a publicar artigos que continham fotos do presidente e a palavra “idiota”.

Esta é a técnica que se tornou conhecida como “Google Bomb“, na qual um grupo grande de utilizadores publica determinados conteúdos online para criar referências enviesadas no banco de dados do motor de busca, influenciando a classificação de uma determinada página ou ‘site’ nos resultados retornados pelo Google, normalmente com intenções humorísticas ou políticas.

Trump não é, contudo, o primeiro presidente a ser “vítima” dos utilizadores da Internet. De acordo com a Wired, em 2003, uma busca por “fracasso miserável” destacava imagens do antigo presidente norte-americano George W. Bush.

Polémicas como esta continuam a surgir por causa das sugestões dos motores de busca, apesar das medidas tomadas pelas empresas tecnológicas. Continuam a existir conteúdos sexistas, discriminatórios e anti-semitas nos resultados das pesquisas e nos conteúdos presentes na Internet. Provavelmente, não serão os exemplos acima os últimos pedidos de desculpas das ‘Big Tech’.

Taísa Pagno, ZAP //

Siga o ZAP no Whatsapp

3 Comments

  1. Novo tipo de censura, cada vez mais há censura e etc, tudo em nome do politicamente correto e justiça social, viva a extrema-esquerda e as suas politicas fascistas.

  2. estranho ? ninguem fala do clima de terror e medo que assiste a grande parte da populaçao em fazer algumas pesquisas na internet ,como daesh ,,cocaina , armas nucleares etc etc ,que apesar de terem smartphones,computadores ,tem medo de ir parar a alguma base de dados como possiveis criminosos ! escrutinados por algum algoritemo de um motor de busca,que vive de vender os utilizadores,uma censura silenciosa !!

Deixe o seu comentário

Your email address will not be published.