“Terrivelmente anti-ético”. Startup usou adolescentes suicidas para testar chatbot de redes sociais

A empresa está a ser criticada por usar um método que nunca foi testado para lidar com pessoas em crises de saúde mental. O estudo também não cumpriu os requisitos normais de consentimento.

A startup Koko, uma organização sem fins lucrativos dedicada à saúde mental recrutou, entre Agosto e Setembro de 2022, utilizadores entre os 18 e 25 anos de idade que fizeram publicações nas redes sociais com palavras como “depressão” ou “sewer-slide” (um termo em inglês que soa semelhante a “suicide” e é usado para se poder abordar o suicídio sem censura).

Tudo isto fez parte de uma experiência polémica para um estudo. Quando o algoritmo da Koko encontrava pessoas a usar linguagem “relacionada com crise” em plataformas como o Facebook, Tumblr, Discord ou Telegram, reencaminhava-as para a sua própria plataforma, onde lhes eram apresentados os termos de serviço que determinavam que os seus dados podiam ser usados para fins de pesquisa.

Os jovens interagiam depois com um chatbot que lhes perguntou “Com o que é que estar a lutar?”. Se a sua resposta indicava que estavam em risco, eram reencaminhados para uma “fluxo de crise” que lhes questionava sobre se tinham pensamentos suicidas, se se auto-mutilavam, se sofriam de distúrbios alimentares, abusos, etc.

Com base nas respostas, os jovens eram aleatoriamente atribuídos a um de dois grupos. Um grupo, de controlo, dava um número para uma linha telefónica de apoio a pessoas a sofrer crises de saúde mental. A outra dava uma “Intervenção Aprimorada em Sessão Única de um Minuto para Crise”, que consiste num questionário com intersticiais com um GIF de um gato e pedia que identificassem gatilhos e estratégias para lidar com as suas crises de saúde mental.

Os utilizadores foram depois submetidos a uma série de perguntas sobre por que estavam em crise, o que poderia fazer para lidar e com quem poderiam conversar sobre isso. No final, receberam um “plano de segurança” onde o bot lhes pediu que fizessem uma captura de ecrã para se lembrarem de a quem poderiam ligar em caso de emergência. Nesta página, também foram dadas informações sobre como chegar a uma linha direta de crise, escreve a Vice.

Os investigadores procuraram estudar a eficácia deste tipo de intervenção. No entanto, a experiência levanta muitas questões éticas, dado que os participantes não tiveram as mesmas proteções à privacidade e segurança que normalmente são dadas em estudos.

Normalmente, um estudo que envolve pessoas requere fiscalização de um conselho, informar os participantes sobre os riscos e benefícios, dar contactos para quem tem dúvidas sobre a pesquisa e uma assinatura que garante o consentimento.

Vários psicólogos manifestaram o seu descontentamento com a experiência. “Completamente, terrivelmente anti-ético. Brincar de maneira experimental com intervenções não comprovadas em pessoas potencialmente suicidas é simplesmente horrível“, considera Arthur Caplan, professor de bioética na Universidade de Nova Iorque.

Rob Morris, fundador da Koko, defendeu o seu estudo das críticas, apontando que as plataformas das redes sociais não fazem o suficiente para proteger os utilizadores em risco e afirma que pedir o consentimento informado dos participantes poderia levar a que estes desistissem da experiência. “Tem nuance”, refere.

“Tem nuance. Seria ótimo se tivéssemos um ser humano que pudesse responder a cada pessoa em crise online 24/7, 365 em qualquer lugar do mundo. Isso simplesmente não é possível”, explica ainda John Draper, antigo diretor da 988/Lifeline. “Então, acho que a pergunta é: o que podemos fazer para os ajudar a conectarem-se com as pessoas de maneira mais eficiente?”, questiona.

ZAP //

Deixe o seu comentário

Your email address will not be published.