/

Investigadores desenvolvem robô com uma “forma primitiva de empatia”

1

Embora o desenvolvimento de sistemas de inteligência artificial com cognição avançada ainda esteja um pouco longe, investigadores da Universidade de Columbia conseguiram criar um robô com o que chamam de “teoria visual do comportamento”.

Para que os robôs interajam socialmente com os humanos, primeiro precisam de desenvolver a capacidade da Teoria da Mente (ToM), que envolve a capacidade de empatia com os outros.

Os autores explicaram, no seu estudo publicado na Scientific Reports, que essa característica pode muito bem ter surgido em animais como um precursor evolutivo do ToM, e pode representar um passo importante para a criação de IA com capacidades sociais complexas.

A Teoria da Mente é a principal marca da cognição humana e acredita-se que surja na maioria das crianças por volta dos três anos. Esta permite aos humanos compreender as necessidades e intenções das pessoas à sua volta e, portanto, facilita atividades sociais complexas.

Normalmente, a ToM baseia-se no raciocínio simbólico, pelo qual o cérebro analisa explicitamente as entradas para prever as ações futuras de outra pessoa, geralmente usando a linguagem. Isso só pode ser alcançado através do uso de equipamentos neurais como o córtex pré-frontal – algo que todos os humanos possuem, mas que é muito avançado para robôs.

No entanto, os autores do estudo levantam a hipótese de que alguns dos nossos ancestrais evolucionários podem ter desenvolvido a capacidade de prever as ações de outros simplesmente visualizando-as com os olhos da mente, muito antes que a capacidade de raciocínio simbólico explícito surgisse. Os investigadores começaram a recriar a teoria visual do comportamento do corpo num sistema de IA

De acordo com o IFL Science, para isso, a equipa programou um robô para que este se movesse continuamente em direção a um dos dois pontos verdes de seu campo visual, sempre optando pelo que considerasse ser o mais próximo dos dois.

Por vezes, os investigadores impediam o robô de ver o ponto verde mais próximo, obscurecendo-o com um bloco vermelho, fazendo com que este se movesse em direção ao ponto mais distante.

Uma segunda IA ​​passou duas horas a observar o primeiro robô enquanto este completava a tarefa. Crucialmente, este robô tinha uma visão panorâmica do espaço, portanto, sempre podia ver os dois pontos verdes.

Eventualmente, esta IA aprendeu exatamente o que estava a acontecer e desenvolveu a capacidade de prever o que o primeiro robô faria, observando apenas a disposição dos pontos verdes e do bloco vermelho. Assim, o observador de IA foi capaz de prever o objetivo e as ações do primeiro robô com 98,45% de precisão, apesar de não ter capacidade de raciocínio simbólico.

Segundo o estudo, essa capacidade de processamento baseado em imagens é mais primitiva do que o processamento baseado em linguagem ou outras formas de raciocínio simbólico, mas os autores do estudo sugerem que pode ter atuado como um degrau evolutivo em direção à ToM em humanos e outros primatas.

Ana Moura, ZAP //

Siga o ZAP no Whatsapp

1 Comment

Deixe o seu comentário

Your email address will not be published.