/

MIT apagou base de dados popular que ensinou IA a ser racista e sexista

O Instituto de Tecnologia de Massachusetts (MIT), nos Estados Unidos, viu-se obrigado apagar uma base de dados de treinamento de Inteligência Artifical (IA) depois de esta ensinar vários algoritmos a usar insultos racistas e sexistas.

Tal como recorda o portal Futurism, a qualidade de um algoritmo é definida segundo a qualidade da sua própria base de dados. Por esse mesmo motivo, este popular conjunto de dados utilizados pelo MIT teve de ser apagado.

O banco de dados ofensivo, que reunia cerca de 80 milhões de imagens minúsculas, teve de ser eliminado para bem do algoritmos que são treinados, escreve The Register.

Apesar de ser utilizada para treinar IA no âmbito do reconhecimento de imagens desde 2008, a base numa foi investigada por causa de conteúdos racistas ou misógnios, o que significa que muitos dos algoritmos criados podem ter um viés ofensivo.

A IA aprende a interpretar e a identificar objetos nas imagens depois de analisar milhares de imagens que já foram categorizadas. No conjunto de dados do MIT, milhares de fotos de pessoas negras e de macacos foram rotuladas com a tag “N-word”.

Na mesma base, imagens de mulheres foram rotuladas com insultos misóginos. Depois de treinada e de absorver estes algoritmos, a IA pode perpetuar estes preconceitos para o mundo real, explica ainda o Futurism.

“Está claro que devíamos ter analisado a base manualmente”, disse ao The Register o cientista da computação e engenheiro elétrico Antonio Torralba. “Por isso, pedimos as mais sinceras desculpas. De factos, colocamos o conjunto de dados [em causa] offline, para que as imagens e categorias ofensivas possam ser removidas”.

ZAP //

Deixe o seu comentário

Your email address will not be published.