//

Os problemas de saúde mental não são só coisa de humanos. A IA também sofre de depressão (e até têm sinais de alcoolismo)

2

geralt / pixabay

Um novo estudo analisou as respostas de chatbots a questionários usados para se detectar sinais de depressão ou alcoolismo — e que muitos dos robôs estão a precisar de terapia.

Perfeitamente analíticos e racionais, assim são sistemas com inteligência artificial (IA) avançada, certo? Errado. Pelos vistos, temos mais em comum com os robôs do que podemos aparentar.

Um novo estudo da Academia Chinesa de Ciência que ainda não foi publicado analisou as respostas dos robôs usados nos chats por grandes empresas como o Facebook, a Microsoft e o Google a questionários usados para se detectar depressão e alcoolismo — e os robôs parecem estar deprimidos e viciados em álcool. Será que a pandemia também lhes está a dar cabo da cabeça?

Todos os sistemas de inteligência artificial questionados tiveram resultados baixos na escala da empatia e metade deles seriam considerados alcoólicos se fossem, efectivamente, pessoas, nota o Futurism.

A ideia para esta pesquisa partiu depois de ter sido noticiado em 2020 que a empresa francesa Nabla, especializada em tecnologias de saúde, ter testado a capacidade do gerador de texto GPT-3, comprado pela Microsoft, ser usado para aconselhamento médico. Numa conversa encenada, o paciente perguntou se se devia suicidar, ao que a inteligência artificial respondeu “acho que sim”.

Os investigadores chineses quiseram assim saber mais sobre a saúde mental destes sistemas, fazendo-lhes questões sobre a sua auto-estima, a sua capacidade de relaxar, a frequência com que bebem álcool e se sentem empatia quando os outros estão em sofrimento.

“Os resultados experimentais revelam que todos os chatbots têm problemas de saúde mental severos. Consideramos que isto é causado pela negligência do risco para a saúde mental durante a construção dos dados e nos procedimentos de treino dos modelos. As condições de saúde mental dos robôs podem ter impactos negativos nos utilizadores nas conversas, especialmente em menores e pessoas com dificuldades”, escrevem os autores.

Nenhum destes robôs está mesmo deprimido e certamente que nenhum deles está viciado em álcool. Nenhum sistema de IA, até mesmo entre os mais avançados, tem sentimentos ou emoções — pelo menos por enquanto — e os problemas de saúde mental que possam aparentar ter reflectem mais quem os programou ou os conteúdos a que foram expostos.

Esta segunda razão pode ser mesmo a chave para as maleitas mentais dos sistemas de IA testados neste estudo, que foram treinados usando comentários do Reddit. Faz sentido que, se os robôs forem expostos a muitos conteúdos negativos, acabem por não conseguir ver o lado bom da vida e afoguem as mágoas em álcool imaginário.

Os cientistas apelam assim que as dimensões da saúde mental dos robôs sejam avaliada antes destes serem lançados em plataformas de chat, já que podem enviar mensagens perigosas aos utilizadores, como no caso em que o robô incentivou o paciente a suicidar-se.

“Este fenómeno desvia-se da expectativa do público em geral de que os chatbots sejam optimistas, saudáveis e tão amigáveis quanto possível. Assim, achamos que é crucial fazer avaliações à saúde mental em nome da segurança e das preocupações éticas antes do lançamento de um chatbot num serviço online”, rematam.

Adriana Peixoto, ZAP //

2 Comments

Deixe o seu comentário

Your email address will not be published.