Os robôs conseguem ler o seu pensamento? Emo sente o seu sorriso e responde na mesma moeda

O robô Emo percebe quando um ser humano está prestes a sorrir e responde simultaneamente com uma simpática expressão facial.

Os significativos avanços nos grandes modelos de linguagem, como o ChatGPT da OpenAI, permitiram desenvolver robôs com capacidades de comunicação verbal interessantes, mas a comunicação não-verbal continua a ser um grande desafio no campo da robótica.

Recentemente, investigadores do Creative Machines Lab da Columbia Engineering, da Universidade de Columbia, ensinaram um robô antropomórfico, chamado Emo, a antecipar o sorriso de uma pessoa e a responder na mesma moeda.

Segundo o New Atlas, criar um robô que responda a sinais não-verbais envolve dois desafios: criar uma face expressiva, mas versátil, que envolve a incorporação de hardware e mecanismos de atuação complexos e ensinar ao robô que expressão produzir em tempo útil para parecer natural e genuíno.

Emo é composto por 26 atuadores que lhe permitem produzir várias expressões faciais, além de conter câmaras de alta resolução em ambas as pupilas que fazem com que seja possível o robô manter contacto visual para a comunicação não-verbal.

Para treinar a máquina, os investigadores colocaram-se em frente às câmaras e deixaram-na realizar movimentos aleatórios. Foi assim que Emo aprendeu que comandos motores produziam certas expressões faciais.

Depois, o robô observou vídeos de expressões faciais humanas para analisar as mesmas ao pormenor e, algumas horas de treino depois, conseguiu prever as expressões faciais das pessoas, através da simples observação de pequenas mudanças no rosto.

Segundo o portal, Emo previu um sorriso humano cerca de 840 milissegundos antes de acontecer e respondeu simultaneamente com um dos seus sorrisos.

“Quando um robô faz coexpressões com pessoas em tempo real, não só melhora a qualidade da interação, como também ajuda a construir confiança entre humanos e robôs”, referiu o autor do artigo científico, publicado na Science Robotics, Yuhang Hu.

ZAP //

Deixe o seu comentário

Your email address will not be published.