Facebook prepara medidas para controlar possível agitação eleitoral

Jim Lo Scalzo / EPA

Voto por correspondência nos EUA

Equipas do Facebook estão a analisar a possibilidade acalmar o conflito eleitoral nos Estados Unidos (EUA), implementando ferramentas internas projetadas para o que chama de países “em risco”.

Segundo fontes ligadas à empresa, citadas pelo Wall Street Journal, essas medidas incluem desacelerar a partilha de conteúdo viral e suprimir mensagens potencialmente inflamatórias. Utilizadas ​​anteriormente em países como Sri Lanka e Myanmar, fazem parte de um pacote maior de ferramentas, desenvolvido pelo Facebook para as eleições nos EUA.

Responsáveis do Facebook indicaram que só implementariam essas ferramentas em circunstâncias extremas, frisando, contudo, que a empresa precisa estar preparada para todas as possibilidades.

A estratégia passa por desacelerar a disseminação de publicações consoante estas comecem a tornar-se virais e ajustar o ‘feed’ de notícias para alterar os conteúdos a que os utilizadores têm acesso. Outra das medidas visa detetar conteúdo considerado perigoso.

Implementadas juntas, as ferramentas podem alterar o que dezenas de milhões de norte-americanos vêem quando se conetam à plataforma, diminuindo a sua exposição ao sensacionalismo e à incitação à violência e desinformação.

No entanto, desacelerar a disseminação de conteúdo popular pode suprimir algumas discussões políticas não sensacionalistas, uma perspectiva que deixa alguns funcionários do Facebook desconfortáveis, referiram as fontes.

“Passámos anos a construir eleições mais seguras”, disse o porta-voz do Facebook Andy Stone. “Aplicámos lições de eleições anteriores, contratámos especialistas e construímos novas equipas com experiência em diferentes áreas para nos prepararmos para vários cenários”, explicou.

No início deste mês, a empresa foi criticada por republicanos, incluindo pelo Presidente Donald Trump, depois de desacelerar a disseminação de artigos do New York Post relacionados ao filho de Joe Biden, Hunter Biden.

Presidência do Peru

O CEO do Facebook, Mark Zuckerberg

A empresa disse que a ação estava de acordo com as regras anunciadas no ano passado para evitar interferências nas eleições. Os democratas reclamaram que o Facebook não fez o suficiente para evitar a disseminação de informações incorretas e tem sido excessivamente deferente com a ala da direita.

O Facebook faz regularmente alterações nos seus algoritmos para aumentar o envolvimento dos utilizadores e penalizar os que consideram ter má conduta, mudanças essas que raramente são anunciadas, a menos que a empresa considere que são de interesse público.

“Precisamos fazer tudo o que estiver ao nosso alcance para reduzir as hipóteses de violência ou agitação civil após esta eleição”, disse à Axios o CEO do Facebook, Mark Zuckerberg, em setembro.

Já o diretor de comunicações e políticas do Facebook, Nick Clegg, indicou ao USA Today que a empresa criou ferramentas para cenários de crise, embora se tenha recusado a falar publicamente sobre as mesmas.

Numa teleconferência na semana passada dirigida à empresa, Zuckerberg disse que as próximas eleições e a pandemia já levaram o Facebook a limitar a voz dos utilizadores mais do que gostaria, segundo uma fonte presente na reunião. Citando pesquisas que mostram uma vantagem de Biden, o CEO frisou que uma vitória decisiva para qualquer um dos candidatos “poderia ser útil” para evitar o risco de violência ou agitação após as eleições.

Desde 2018, a empresa tem tomado medidas mais agressivas fora dos EUA, onde o Facebook geralmente enfrenta maior pressão. A empresa formalizou procedimentos para intervenções humanitárias depois de a Organização das Nações Unidas ter indicado que a inação da empresa relativamente ao discurso de ódio e à incitação à violência fomentou a limpeza étnica dos muçulmanos Rohingya em Myanmar.

A empresa formou então equipas que avaliam os países com base em análises geopolíticas e em dados internos. Um dos resultados foi no Sri Lanka, onde um consultor de direitos humanos do Facebook concluiu que a inação da empresa quanto aos discursos de ódio e falsos rumores preparou o cenário para atrocidades em 2018.

ZAP //

Deixe o seu comentário

Your email address will not be published.