Uma investigação aos manuais internos da rede social mostram que, em certas situações, o Facebook decide não eliminar certos vídeos de caráter violento porque acredita que podem servir para criar consciência sobre temas sensíveis.
O The Guardian teve acesso a estes manuais internos do Facebook e, segundo o próprio jornal britânico, as revelações desta investigação podem abrir um novo debate sobre o papel e a ética desta rede social que conta com dois mil milhões de utilizadores.
Foram mais de cem manuais internos e outros documentos que mostram como é que os moderadores devem abordar temas sensíveis como a violência, discurso de ódio, terrorismo, pornografia e racismo.
Um documento mostra que a rede social recebe mais de 6,5 milhões de queixas por semana relativamente a contas falsas. “O Facebook não consegue controlar o seu conteúdo. Cresceu demasiado e muito rápido”, diz uma fonte da empresa ao jornal.
O diário escreve mesmo que os moderadores estão tão sobrecarregados de trabalho que, muitas vezes, têm “dez segundos” para tomar uma decisão sobre o que fica ou sai da rede de Mark Zuckerberg.
Por exemplo, as regras determinam que publicações como “disparar contra Trump” devem ser apagadas por se tratar de um chefe de Estado que se encontra numa categoria protegida. No entanto, vídeos de mortes violentas não têm de ser sempre apagados porque podem ajudar a “criar consciência” sobre temas sensíveis como as doenças mentais.
E neste seguimento aparecem também as imagens de abusos não sexuais e bullying a crianças, que podem ser mantidas a não ser que tenham uma intenção sádica ou laudatória. Abusos a animais devem ter um alerta de “conteúdo perturbador”, assim como os vídeos de abortos que são permitidos (a não ser que exista nudez). Além disso, a rede também permite que os utilizadores transmitam ao vivo tentativas de auto-mutilação porque “não quer censurar ou punir pessoas em aflição”.
Segundo os relatórios internos, a chamada “pornografia de vingança” é também uma das áreas mais difíceis e complexas de controlar.
Neste tipo de casos, o Facebook defende-se, dizendo que “os menores precisam de proteção” mas que as pessoas maiores de idade devem poder escolher.
Em declarações ao jornal, uma das responsáveis do Facebook, Monika Bickert, diz que é difícil controlar todo o conteúdo publicado. “A nossa comunidade é diversa e global e, por isso, todos os utilizadores vão ter ideias muito diferentes sobre o que é aceitável. Não importa onde se coloque a linha, haverá sempre áreas cinzentas“, explica, dando o exemplo entre a linha ténue que separa o humor, a ironia e o conteúdo inapropriado.
“Sentimo-nos responsáveis pela nossa comunidade e para mantê-la segura. É um compromisso da empresa. Vamos continuar a trabalhar e a investir para manter o site seguro”, diz a responsável.