O Facebook está a desenvolver um “universo paralelo” na rede social que vai simular as interações de utilizadores reais, potencialmente dando à plataforma um método proativo de combater trolls, burlões e infratores.
A versão “sombra” da popular rede social de Mark Zuckerberg – invisível à superfície – poderá ser usada para investigar as “propriedades sociais” do conjunto de aplicações das empresas, forçando os bots a combater e intencionalmente tentar quebrar sistemas ou violar diretrizes.
De acordo com a Newsweek, a equipa delineou a sua Simulação Ativada pela Web (WES), conhecida internamente como “WW” e sendo construída para tirar proveito da infraestrutura real do site.
De acordo com os investigadores que estão a desenvolver a versão sombra, os bots estão treinados para se comportarem como maus utilizadores e soltar-se em centenas de milhões de linhas de código para analisar os resultados e destacar falhas de segurança.
“A simulação WW do Facebook é um WES que usa bots que tentam quebrar os padrões da comunidade num ambiente isolado e seguro, a fim de testar e fortalecer a infraestrutura que impede que atores maus verdadeiros violem os padrões da comunidade”, explicou a equipa num artigo.
O WW será “isolado com segurança” e usado para investigar possíveis problemas de privacidade nas principais plataformas. “Como os robôs da WW estão isolados de afetar utilizadores reais, podem ser treinados para executar ações potencialmente violadoras da privacidade”.
Assim, os bots autónomos “veem” o Facebook a mesma plataforma que os utilizadores reais e conseguem ler – mas não mudar – o mundo real dados da plataforma. No entanto, não conseguem afetar os utilizadores reais de forma alguma: as suas ações são completamente isoladas do mundo real, segundo explicou Hari Jackson, especialista de tecnologia, à Newsweek.
O WW pode ser usado para simular as ações de pessoas que tentam partilhar conteúdo ilegal no Facebook, dando aos programadores mais informações sobre o que procurar. Os bots também podem ser implantados para procurar grupos de utilizadores que partilham conteúdo que viola as políticas.
Os bots podem ser treinados com a intenção de violar as regras, tentando aceder a “fotografias privadas” de outro bot, para encontrar bugs de privacidade ou áreas de fraqueza.