Motores de busca “politicamente corretos”: algoritmos de opressão contra desigualdade de género

Com o intuito de combater as desigualdades sociais – nomeadamente as de género -, os motores de busca, como o Google, têm vindo a mudar algumas políticas nos últimos anos, deixando, por exemplo, de oferecer sugestões em pesquisas relacionados com o termo ‘mulher’.

A decisão por parte da Google de deixar de apresentar sugestões para pesquisas relacionadas com a palavra ‘mulher’ foi tomada após uma polémica à volta do preenchimento automático, exposta numa campanha criada pela Organização das Nações Unidas (ONU), em parceria com a agência de publicidade Memac Ogilvy & Mather Dubai.

“As mulheres não devem ter direitos”, “as mulheres não devem votar” e “as mulheres não devem trabalhar”, foram algumas das sugestões sexistas e discriminatórias que motivaram a campanha e que foram retiradas do Google Instant – serviço de preenchimento automático que sugere letras e palavras para concluir uma consulta.

Caso se procurasse por “mulheres não podem”, o Google preenchia automaticamente com sugestões como “conduzir”, “ser confiáveis” ou “falar na igreja”. Por “mulheres não devem”, aparecia “ter direito a voto” e “trabalhar”. Já na pesquisa “as mulheres devem”, as mesmas passavam por “ficar em casa”, “ser escravas” ou “estar na cozinha”.

Digitava-se “mulheres precisam” e surgiam frases como “ser colocadas nos seus lugares”,”conhecer o seu lugar”, “ser controladas” e “ser disciplinadas”.

Essa realidade, contudo, mudou. Atualmente, ao escrever no motor de busca do Google “as mulheres devem”, é possível verificar que não são apresentadas sugestões, ao contrário do que acontece quando a pesquisa começa por “homens devem”.

E não precisamos ir tão longe: caso escrevamos somente o termo “mulher”, ou “mulheres”, o motor de busca não apresenta qualquer sugestão. Em oposição, se escrevermos “homem”, ou “homens”, surgem de imediato diversas.

Uma das especialistas que abordou o tema das sugestões sexistas fornecidas pelo preenchimento automático do Google foi Safiya Noble, professora na Annenberg School of Communication, da University of Southern California, nos Estados Unidos (EUA). O estudo que vem a desenvolver, desde 2011, deu origem ao livro “Algorithms of Oppression” (Algoritmos de Opressão).

Numa entrevista ao Público, em março de 2018, a autora – que há muitos anos tinha percebido que não podia confiar no Google para procurar informação sobre ‘mulheres negras’ sem ser bombardeada por imagens obscenas e estereótipos -, disse que é necessário “falar sobre os algoritmos que nos oprimem”.

“Há uns anos, ‘raparigas negras’, para o Google, era sinónimo de pornografia”, problema que se estendia às ‘meninas’, ‘mulheres’ e ‘raparigas’ latinas ou asiáticas.

A escritora Safiya Noble, autora do livro “Algorithms of Oppression”

Na altura em que o facto foi revelado, refere o Público, o Google responsabilizou os algoritmos, “uma palavra que viria a tornar-se cada vez mais popular em comunicados sobre erros de grandes empresas tecnológicas”. No final de 2012, a empresa atualizou manualmente o algoritmo, com o intuito de dar menos foco à pornografia.

“As mulheres e as raparigas não têm sorte nos motores de busca, isso é óbvio. O meu objetivo não é mostrar isto, mas desvendar as formas de pensar e o poder que os movem”, explicou Safiya Noble. “As grandes empresas adoram escrever que não foram as responsáveis, que é o algoritmo. Mas, então, porque é que dependemos dele?”.

Segundo um dos exemplos presentes no seu livro, nos EUA, pesquisar por “crimes de negros contra brancos” ainda leva a páginas extremistas contra a população negra e judeus, mas omite informação de fontes legais onde as estatísticas mostram que a maioria dos crimes contra brancos nos EUA é cometida por brancos.

“Apesar de alguns motores de busca esconderem resultados relacionados com ‘pornografia’ e ‘sexo explícito’, este tipo de resultados podem surgir – mesmo quando a pessoa não o queira”, lê-se no artigo do Público.

Safiya Noble nota que os algoritmos que discriminam de forma positiva e evitam palavras “problemáticas” não são a excepção ao problema. “A ideologia de ‘não vejo cores’ é perigosa, porque suprime elementos únicos da cultura e da etnia de alguém”.

Apesar de muitos dos exemplos do livro se centrarem no Google, diz que não vê o serviço como o “mau da fita”: “precisava de um foco para os meus exemplos. Se tentamos falar de tudo, não falamos de nada e o Google é o motor de busca dominante”, no entanto, “não devia ser o primeiro passo numa pesquisa sobre notícias ou cultura”.

A autora acredita que parte do problema prende-se ao facto de se saber pouco sobre a lógica do algoritmo do motor de busca. “É impossível ter respostas certas sobre o que influencia estes algoritmos e os humanos que os constroem, já que o assunto não está sujeito a discussão, excepto quando o criticamos”, esclarece.

Uma das soluções, refere a professora, passa por “tirar o poder aos algoritmos” com um motor de busca em que as pessoas possam escolher se querem ver conteúdo filtrado para não mostrar racismo, homofobia, conteúdo pornográfico ou sexista. Ou se, pelo contrário, querem ver tudo.

Google e os sucessivos pedidos de desculpa

São vários os pedidos de desculpa públicos emitidos pela Google ao longo do tempo, devido a sugestões anti-semitas, sexistas e racistas que apareciam no seu motor de busca. Em dezembro de 2016, o Guardian avançou que, no seguimento de mais um desses casos, a empresa tinha alterado as definições de preenchimento automático.

Como resposta, um porta-voz da empresa disse, na altura, que os resultados das pesquisas são um reflexo do conteúdo presente na Internet. “Isso significa que, às vezes, descrições desagradáveis podem afetar os resultados da pesquisa para uma determinada consulta. Esses resultados não refletem as opiniões ou crenças da Google”.

“Fazemos o melhor possível para evitar que termos ofensivos, como pornografia e incitação ao ódio, apareçam, mas reconhecemos que o preenchimento automático não é uma ciência exata e estamos sempre a trabalhar para melhorar os nossos algoritmos”, frisou.

O mesmo artigo do Guardian indica que a empresa já se tinha desculpado, em maio de 2015, quando a Casa Branca foi devolvida como resultado de buscas por “nigga house” (apesar de gíria, significa “casa dos pretos”, numa tradução livre) nos mapas do Google, durante a presidência de Barack Obama.

https://twitter.com/iambomanix/status/600700825837576194?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E600700825837576194&ref_url=https%3A%2F%2Fwww.huffingtonpost.com%2F2015%2F05%2F19%2Fwhite-house-nigga-house_n_7323690.html

Embora se tenha recusado a esclarecer o que aconteceu, um porta-voz da Google afirmou que alguns “resultados inadequados” estavam a surgir no Google Maps. “Pedimos desculpas por qualquer ofensa que isso possa ter causado”, disse.

Em abril do mesmo ano, a empresa voltou a pedir desculpas depois de uma pesquisa por “penteados profissionais para o trabalho” mostrar resultados de imagens com mulheres predominantemente negras com cabelo natural, enquanto a busca por imagens “profissionais” retornava fotografias de mulheres brancas e bem penteadas.

Três meses depois, uma fotografia sugerida automaticamente no Google classificava dois adolescentes negros como “gorilas”. A empresa desculpou-se mais uma vez, informando que estava a trabalhar em “correções de longo prazo” em torno do reconhecimento de rostos de pele escura, bem como nas legendas de imagens.

‘Big Tech’ e a suposta influência na política

Em maio 2018, o Google inseriu o termo “nazismo” como parte da ideologia do Partido Republicano – menos de uma semana antes das eleições primárias -, devido a um ato de vandalismo no Wikipedia, que não foi detetado pelo mecanismo de busca.

Segundo o artigo do Vice Motherboard, os republicanos questionaram os executivos, em várias audiências no Congresso, acerca da influência das ‘Big Tech’ (grandes empresas de tecnologia) nas eleições de 2016, e sobre o facto de “as vozes da direita estarem a ser silenciadas através dos seus algoritmos e políticas”.

Certo é que, de acordo com uma notícia do Search Engine Land, de junho de 2016, o preenchimento automático do Google oferecia uma sugestão para “Lying Ted” (Ted a mentir) quando era digitado no motor de busca o termo “lying” (a mentir). “Lying Ted” era o apelido que Donald Trump, na altura candidato republicano à presidência dos Estados Unidos, colocou ao seu antigo rival, Ted Cruz.

Porém, quando se digitava o termo “crooked” (desonesto), não era sugerido “Crooked Hillary” (Hillary desonesta), apelido que Trump atribuiu à sua rival democrata Hillary Clinton, durante o mesmo período. Essa situação gerou alguma polémica, sugerindo que o motor de busca estaria a filtrar, deliberadamente, esses termos, favorecendo a candidata.

Peter Foley / EPA

O atual presidente dos Estados Unidos, Donald Trump, e a ex-candidata democrata, Hillary Clinton

Na altura, a Google esclareceu que as previsões de preenchimento automático são produzidas com base em vários fatores, incluindo a popularidade dos termos de pesquisa, e que os seus sistemas são atualizados periodicamente. “Não há diferença na forma como os nossos filtros de remoção operam entre os candidatos”.

Apesar destas várias declarações e pedidos de desculpa por parte da empresa, outras situações controversas continuam a surgir, algumas delas envolvendo antigos chefes de Estado norte-americanos, bem como o atual presidente.

Trump no Google: “american idiot”?

Segundo um artigo do Vice Motherboard, de julho de 2018, o rosto do presidente norte-americano Donald Trump é o primeiro resultado que aparece quando se pesquisam por imagens no Google com o termo “idiota”. A sua imagem é também encontrada na segunda, na terceira e quarta posição. Navegando pela página, o seu rosto continua a aparecer “com uma regularidade incomum”.

Este fenómeno iniciou-se quando manifestantes britânicos conseguiram colocar a canção “American Idiot“, da banda de punk rock Green Day, no topo das mais ouvidas durante a semana em que Trump visitou o Reino Unido. Utilizadores do Reddit, por sua vez, começaram a manipular o algoritmo do Google, propositadamente, de forma a publicar artigos que continham fotos do presidente e a palavra “idiota”.

Esta é a técnica que se tornou conhecida como “Google Bomb“, na qual um grupo grande de utilizadores publica determinados conteúdos online para criar referências enviesadas no banco de dados do motor de busca, influenciando a classificação de uma determinada página ou ‘site’ nos resultados retornados pelo Google, normalmente com intenções humorísticas ou políticas.

Trump não é, contudo, o primeiro presidente a ser “vítima” dos utilizadores da Internet. De acordo com a Wired, em 2003, uma busca por “fracasso miserável” destacava imagens do antigo presidente norte-americano George W. Bush.

Polémicas como esta continuam a surgir por causa das sugestões dos motores de busca, apesar das medidas tomadas pelas empresas tecnológicas. Continuam a existir conteúdos sexistas, discriminatórios e anti-semitas nos resultados das pesquisas e nos conteúdos presentes na Internet. Provavelmente, não serão os exemplos acima os últimos pedidos de desculpas das ‘Big Tech’.

Taísa Pagno Taísa Pagno, ZAP //

PARTILHAR

3 COMENTÁRIOS

  1. Novo tipo de censura, cada vez mais há censura e etc, tudo em nome do politicamente correto e justiça social, viva a extrema-esquerda e as suas politicas fascistas.

  2. estranho ? ninguem fala do clima de terror e medo que assiste a grande parte da populaçao em fazer algumas pesquisas na internet ,como daesh ,,cocaina , armas nucleares etc etc ,que apesar de terem smartphones,computadores ,tem medo de ir parar a alguma base de dados como possiveis criminosos ! escrutinados por algum algoritemo de um motor de busca,que vive de vender os utilizadores,uma censura silenciosa !!

RESPONDER

Serena Williams: "A prioridade é a minha filha, não os Jogos Olímpicos"

Recordista do ténis feminino deixa a entender de que não vai a Tóquio. Naomi Osaka coloca dúvidas à volta do próprio evento. "Sou atleta e, por isso, é claro que o meu pensamento imediato é: quero …

A Cidade do México está a afundar a um ritmo incontrolável

Um novo estudo mostra que a Cidade do México, a metrópole mais populosa da América do Norte, afundou tanto que será impossível salvá-la. Depois de séculos de drenagem dos aquíferos subterrâneos, o leito do lago no …

Micróbios podem já estar a comunicar com espécies alienígenas

Os micróbios podem já estar a comunicar com espécies alienígenas, algo semelhante ao que tentamos fazer através do projeto SETI desde 1959. Estaremos sozinhos no Universo? O famoso programa SETI (Search for Extraterrestrial Intelligence) tem tentado …

Tweet de Elon Musk afunda Bitcoins (e dá força à criptomoeda que nasceu como meme)

A Tesla vai deixar de aceitar Bitcoins como forma de pagamento. A revelação foi feita por Elon Musk numa publicação no Twitter e levou à queda do valor da criptomoeda no mercado. A par disso, …

Investigadores criam nova solução para óculos de realidade virtual e aumentada

Uma equipa de investigadores criou uma nova tecnologia para fornecer óculos de realidade virtual que não parecem "olhos de inseto". Num novo artigo publicado na Science Advances, os especialistas descrevem a impressão de ótica de forma …

Genética da população portuguesa pode explicar deficiência de vitamina D

Investigadores portugueses concluíram que a população portuguesa tem uma prevalência superior à média europeia de algumas alterações genéticas que levam a uma predisposição para o défice de vitamina D. Este estudo, coordenado pelo Centro Cardiovascular da …

Polónia quer comprar casa de campo francesa (para recuperar o legado de Marie Curie)

A Polónia quer comprar e renovar a casa de campo francesa de Marie Curie e transformá-la num museu, naquele que é um esforço para reivindicá-la como génio científico e pioneira polaca. Embora tenha nascido na Polónia, …

Min Nyo é jornalista, cobriu os protestos em Myanmar e foi condenado a 3 anos de prisão

Min Nyo, um jornalista birmanês de 51 anos, foi condenado a três anos de prisão pela sua cobertura dos protestos na sequência do golpe de Estado em Myanmar. Min Nyo, que trabalhava para a DVB (Voz …

McDonald's e Casa Branca unem-se para sensibilizar população a ser vacinada

Numa parceria com a Casa Branca, a cadeia de fast food norte-americana também está a dar o seu contributo para sensibilizar a população para a vacinação contra a covid-19. A ideia é promover informações relevantes sobre …

Voo "para lado nenhum" esgota em tempo recorde. Bastaram 2,5 minutos

A companhia aérea australiana Qantas vendeu os bilhetes para o próximo "voo para lugar nenhum" em tempo recorde: 2,5 minutos. A Qantas está a promover um novo "voo para lugar nenhum" que dará aos famintos por …