//

Julgado pelas expressões faciais. Jogo de IA adivinha emoções humanas (e alerta para os seus riscos)

Uma equipa de cientistas da University of Cambridge e da University College London, no Reino Unido, criou um site com o objetivo de impulsionar a discussão sobre a tecnologia de reconhecimento de emoções e apontar os seus riscos. 

O site, chamado Emojify, foi construído para ajudar as pessoas a entender a forma como os computadores podem ser usados para analisar o rosto das pessoas e adivinhar as suas emoções – reconhecimento de emoção por inteligência artificial (IA).

De acordo com o Interesting Engineering, os investigadores destacaram que este tipo de tecnologia já está a ser usado em algumas partes do mundo, por exemplo, durante uma entrevista de emprego para detetar o entusiasmo de um candidato pelo cargo ou durante um julgamento para determinar a inocência ou culpa de alguém.

Alguns sugerem que a tecnologia está a ser usada para ajudar a tomar algumas decisões de vida muito importantes. Contudo, outros levantam a questão: é eticamente correto? É exatamente sobre isto que a equipa quer que as pessoas discutam.

No site, a equipa criou um jogo em que o utilizador deve expressar seis emoções humanas – felicidade, tristeza, medo, surpresa, nojo e raiva – através de expressões faciais, para que a IA adivinhe qual “surge” no rosto da pessoa.

Existem também algumas perguntas que o utilizador pode responder, como, por exemplo, se já usou este tipo de tecnologia antes, se acha que é útil ou preocupante ou se já ouviu falar dela.

“Muitas pessoas ficam surpreendidas ao saber que a tecnologia de reconhecimento de emoções existe e já está em uso”, disse Alexa Hagerty, líder do projeto e investiagadora do Centro Leverhulme para o Futuro da Inteligência da Universidade de Cambridge, em declarações ao Indy100. “O nosso projeto dá às pessoas a oportunidade de experimentar estes sistemas por si mesmas e ter uma ideia melhor do quão poderosos são, mas também do quanto podem falhar”.

Para Hagerty, algumas das principais preocupações em torno desta tecnologia é que tem um enorme potencial de discriminação e vigilância, de acordo com o jornal britânico The Guardian. Além disso, a equipa questiona a forma como a tecnologia consegue adivinhar com precisão as emoções dos humanos através de expressões faciais. Por exemplo, às vezes sorrimos para ser educados, não porque estejamos felizes.

Nenhuma das imagens ou dados são guardados pelo site. A esperança é apenas impulsionar a conversa em torno da polémica tecnologia.

Maria Campos, ZAP //

 

 

Deixe o seu comentário

Your email address will not be published.