/

Sistemas de inteligência artificial copiam preconceitos humanos

Um grupo de cientistas das universidades de Princeton, nos Estados Unidos, e Bath, no Reino Unido, elaborou um método para medir o preconceito nestes sistemas semelhante ao teste de associação implícita que se usa para avaliar o dos humanos.

Neste teste pede-se a uma pessoa que agrupe os conceitos que considera idênticos, por oposição aos que entende como diferentes. As pessoas costumam associar, por exemplo, “flores” com “agradável” e “insetos” com “desagradável”.

A equipa de investigadores, liderada por Aylin Caliskan, da Universidade de Princeton, analisou estatisticamente o número de associações entre palavras dos sistemas de inteligência artificial, envolvendo um total de cerca de 2,2 milhões de palavras.

Segundo o estudo publicado na Science, os sistemas de inteligência artificial têm um preconceito ligado ao género, ao associarem as artes mais a “mulher” ou “rapariga” e menos a “homem” ou “rapaz”.

Os autores do estudo sustentam que os resultados obtidos são uma ferramenta para estudar os juízos de valor e o comportamento humano, assinalando que a linguagem está ligada aos preconceitos históricos e a estereótipos culturais.

// Lusa

Deixe o seu comentário

Your email address will not be published.