Pessoas que nem existem parecem mais reais do que verdadeiros humanos

Lil Miquela / Instagram

Lil Miquela, influencer virtual

A utilização generalizada de conteúdos em linha altamente realistas, mas artificiais, pode exigir que olhemos para os conteúdos online com mais desconfiança.

Mesmo que ache que é bom a analisar rostos, uma nova investigação mostra que muitas pessoas não conseguem distinguir de forma clara entre fotografias de rostos reais e imagens que foram geradas por computador, com recurso a inteligência artificial.

Esta confusão ganha a dimensão de problema se consideramos que os sistemas informáticos podem criar fotografias de aspeto realista de pessoas que não existem com relativa facilidade.

Recentemente, uma conta falsa do LinkedIn com uma imagem de perfil gerada por computador foi a notícia porque se conseguiu conectar-se com funcionários dos governo dos Estados Unidos da América e outros utilizadores influentes na plataforma.

De acordo com os especialistas em contra-espionagem, os espiões criam com frequência perfis fantasmas com tais imagens para perseguir alvos estrangeiros através das redes sociais.

Os chamados deep fakes estão a generalizar-se na cultura quotidiana, o que significa que as pessoas deveriam estar mais conscientes do seu uso em marketing, publicidade e até nos meios de comunicação social.

Estas imagens estão também a ser utilizadas para fins duvidosos e que, a longo prazo, podem ser severamente prejudiciais para o mundo como o conhecemos hoje. Um exemplo disso seria propaganda política, espionagem ou guerra de informação.

Desenvolver estas imagens requer uma rede neural profunda, isto é, um sistema informático que imita a forma como o cérebro aprende. Tal capacidade é “treinada”, por exemplo, através de uma exposição a conjuntos de dados cada vez mais vastos de faces reais.

Especificamente, duas redes neurais profundas são colocadas uma contra a outra, competindo para produzir as imagens mais realistas. Como resultado, os produtos finais são apelidados de imagens GAN, onde GAN significa “Generative Adversarial Networks”.

O processo gera imagens inovadoras que são estatisticamente indistinguíveis das imagens de formação.

Num novo estudo publicado no iScience, foi mostrado que a incapacidade de distinguir estas faces artificiais das reais tem implicações no comportamento dos indivíduos online. A investigação sugere que as imagens falsas podem minar a confiança mútua da população, mas também mudar profundamente a forma como comunicamos.

Os investigadores concluíram que as pessoas consideravam os rostos do GAN ainda mais reais do que as fotografias genuínas dos rostos reais das pessoas. Embora ainda não seja claro porquê, a descoberta evidencia os recentes avanços na tecnologia utilizada para gerar imagens artificiais.

Foi ainda estabelecida uma ligação interessante à atratividade: rostos que foram classificados como menos atraentes foram também classificados como mais reais.

De facto, os rostos menos atraentes podem ser considerados mais típicos e o rosto típico pode ser utilizado como uma referência contra a qual todas as faces são avaliadas. Portanto, estas caras GAN pareceriam mais reais porque são mais semelhantes aos modelos mentais que as pessoas construíram a partir da vida quotidiana.

No entanto, avaliar estes rostos artificiais como autênticos pode também ter consequências para os níveis gerais de confiança que estendemos a um círculo de pessoas desconhecidas — um conceito conhecido como “confiança social”.

Muitas vezes lemos demasiado nos rostos que vemos, e as primeiras impressões que formamos guiam as nossas interações sociais. Numa segunda experiência que fez parte da referida investigação, foi possível perceber que as pessoas tinham mais probabilidades de confiar na informação transmitida por rostos que anteriormente julgaram serem reais, mesmo que fossem gerados artificialmente.

Não é surpreendente que as pessoas depositem mais confiança nos rostos que acreditam serem reais. No entanto, os investigadores descobriram que a confiança se corroeu quando as pessoas foram informadas sobre a presença de rostos artificiais nas interações. Depois mostraram níveis de confiança mais baixos, em geral — independentemente de os rostos serem reais ou não.

Este resultado podia ser considerado útil de alguma forma, porque tornava as pessoas mais desconfiadas num ambiente onde os utilizadores fictícios podem operar. Numa outra perspetiva, no entanto, pode gradualmente desgastar a própria natureza da forma como comunicamos e interagimos mutuamente.

Em geral, tendemos a funcionar com base no pressuposto de que outras pessoas são basicamente verdadeiras e dignas de confiança. O crescimento de perfis falsos e outros conteúdos artificiais em linha levanta a questão de quanto a sua presença e o nosso conhecimento sobre eles pode alterar este estado de “verdade por defeito“, acabando por minar a confiança social.

Alterar os nossos incumprimentos

A transição para um mundo onde o que é real é indistinguível do que não é também poderia mudar a paisagem cultural de ser principalmente verdadeira para ser principalmente artificial e enganosa.

Se estamos regularmente a questionar a veracidade do que experimentamos em linha, isso pode exigir que redobremos o nosso esforço mental desde o processamento das próprias mensagens até ao processamento da identidade do mensageiro.

Por outras palavras, a utilização generalizada de conteúdos em linha altamente realistas, mas artificiais, pode exigir que pensemos de forma diferente — de uma forma que não esperávamos.

Em psicologia, é o usado o termo chamado “monitorização da realidade” para identificar corretamente se algo vem do mundo exterior ou de dentro do nosso cérebro. O avanço das tecnologias que podem produzir rostos, imagens e videochamadas falsas, mas altamente realistas, significa que a monitorização da realidade deve ser baseada em informações que não os nossos próprios juízos.

É crucial que as pessoas sejam mais críticas na avaliação de rostos digitais. Isto pode incluir a utilização de pesquisas de imagem inversa para verificar se as fotos são genuínas, estar atento aos perfis dos meios de comunicação social com pouca informação pessoal ou um grande número de seguidores, e estar consciente do potencial da tecnologia falsa profunda a ser utilizada para fins nefastos.

A próxima fronteira para esta área deve ser a melhoria dos algoritmos de deteção de caras digitais falsas. Estes poderiam então ser incorporados em plataformas de meios de comunicação social para nos ajudar a distinguir o real do falso quando se trata de novas caras de ligações.

Deixe o seu comentário

Your email address will not be published.