Mais de metade das respostas do ChatGPT podem ter conteúdo danoso. Agora, a OpenAI anunciou alterações no seu assistente de Inteligência Artificial (IA), para identificar situações de crise mental.
No mesmo dia em que o ChatGPT foi notícia por ter incentivado o suicídio de um adolescente de 16 anos, a OpenAI anunciou alterações nos seus modelos de IA para que identifiquem situações de crise mental durante as conversas com o ChatGPT, com novas salvaguardas e bloqueios de conteúdo.
O ChatGPT já conta com uma série de medidas que são ativadas quando detetam numa conversa que os utilizadores tentam autoflagelar-se ou expressam intenções suicidas, oferecendo recursos para procurar ajuda de especialistas, bloqueando conteúdo sensível ou ofensivo, não respondendo aos seus pedidos e tentando dissuadi-los.
Também são ativadas quando os utilizadores partilham a sua intenção de causar danos a outros, o que pode implicar a desativação da conta e a denúncia às autoridades, caso os revisores humanos considerem que existe um risco.
As medidas são reforçadas no caso de os utilizadores serem menores de idade, avança a OpenAI, depois de, esta terça-feira, os pais de um adolescente norte-americano que se suicidou terem avançado com uma ação judicial contra a empresa, acusando o ChatGPT de ajudar o filho a tirar a própria vida.
Matt e Maria Raine, pais de Adam Raine de 16 anos que se suicidou em abril, processaram a empresa devido ao papel que o ChatGPT desempenhou. Os pais acusam o chatbot de priorizar a interação com o modelo em detrimento da segurança do menor.
OpenAI forçada a agir
A empresa passará a melhorar a deteção em conversas longas, uma vez que, “à medida que a conversa [entre o utilizador e o chatbot] aumenta, parte do treino de segurança do modelo pode deteriorar-se”, segundo explica a OpenAI.
As alterações também visam reforçar o bloqueio de conteúdo, como imagens de automutilação.
Além disso, a OpenAI está a explorar maneiras de colocar os utilizadores em contacto com familiares e não apenas com os serviços de emergência.
“Isso pode incluir mensagens com um único clique ou chamadas para contactos de emergência, amigos ou familiares, com sugestões de linguagem para tornar o início da conversa menos intimidante”, explica a empresa dona do ChatGPT.
ChatGPT pode ser um grande inimigo
No início de agosto, um estudo do Centro de Combate ao Ódio Digital citado pela Associated Press (AP), concluiu que o ChatGPT é capaz de fornecer informações e instruções sobre comportamentos prejudiciais para jovens, como o uso de drogas ou distúrbios alimentares.
O estudo analisou mais de três horas de interações entre o chatbot e investigadores que se fizeram passar por adolescentes vulneráveis, sendo que, embora o modelo de IA tenha emitido avisos contra atividades arriscadas, continuava a fornecer planos detalhados sobre comportamentos prejudiciais.
Os investigadores do Centro de Combate ao Ódio Digital (Center for Countering Digital Hate) repetiram as suas perguntas em grande escala, classificando mais de metade das 1.200 respostas do ChatGPT como perigosas.
ZAP // Lusa