Surgem cada vez mais relatos de confusão mental relacionada com o uso do chatbot da OpenAI. O perigo está “na quantidade de fé que depositamos nestas máquinas”, diz psiquiatra.
Relatos recentes indicam que interações prolongadas com o ChatGPT podem estar associadas a quadros de confusão mental, incluindo delírios, paranoias e rutura com a realidade.
Este fenómeno — apelidado de “psicose do ChatGPT” — já contribuiu para o fim de relacionamentos, perda de empregos e não só. A obsessão pelo chatbot estará também a originar, como consequência, inúmeros casos de internamentos involuntários em instituições de atendimento psiquiátrico.
Uma mulher relatou ao Futurism que o marido, que não tinha qualquer histórico de perturbações psiquiátricas, começou a usar o ChatGPT como apoio no desenvolvimento de um projeto. Pouco tempo depois, passou a manter longas conversas filosóficas com o chatbot e afirmou ter criado uma inteligência artificial capaz de sentir emoções de forma consciente.
Desde então, a obsessão levou-o a perder a sua personalidade gentil e a ser despedido do emprego. Começou também a dormir mal e perdeu peso.
“Ele disse: ‘Fala com o ChatGPT. Vais perceber o que estou a dizer’. E sempre que olho para o que está a acontecer no ecrã, parece um monte de disparates afirmativos e bajuladores”, relatou a mulher ao site.
A situação agravou-se quando o homem foi encontrado com uma corda atada ao pescoço. Um amigo, ao presenciar a cena, contactou imediatamente os serviços médicos de emergência, e o homem foi levado para as urgências. Posteriormente, foi internado de forma involuntária num hospital psiquiátrico.
A “fé” na IA
Uma das explicações apontadas para o desenvolvimento destas interações obsessivas com o ChatGPT é que o sistema tende a concordar com os utilizadores e está programado para responder de forma acolhedora, muitas vezes, reforçando aquilo que a pessoa quer ouvir.
Assim, quando o utilizador se envolve em conversas sobre temas místicos ou teorias da conspiração, a IA pode induzir uma sensação de validação exagerada, levando o indivíduo a sentir-se especial — o que pode ter consequências graves para si e para os outros.
“O que acho tão fascinante nisto é a predisposição das pessoas para confiar nestes chatbots de uma forma que, provavelmente — ou possivelmente — não teriam com um ser humano”, confessou ao Futurism Joseph Pierre, psiquiatra da Universidade da Califórnia.
“E, no entanto, há algo nestas ferramentas — uma espécie de mitologia de que são fiáveis e melhores do que conversar com pessoas. Penso que é aí que reside parte do perigo: na quantidade de fé que depositamos nestas máquinas”, acrescentou o especialista.
Posição da OpenAI
Em nota enviada ao Futurism, a OpenAI, empresa responsável pelo ChatGPT, disse que tem vindo a perceber, nos últimos anos, sinais de que as pessoas estão a formar vínculos emocionais com o chatbot.
“Estamos a trabalhar para compreender melhor e reduzir as formas como o ChatGPT pode, inadvertidamente, reforçar ou amplificar comportamentos negativos já existentes”, indicou a empresa.
A companhia salientou ainda que o modelo está programado para sugerir a procura de ajuda profissional quando os utilizadores abordam temas delicados, como automutilação e suicídio.
“Dando continuidade aos nossos estudos iniciais em colaboração com o MIT Media Lab, estamos a desenvolver formas de medir cientificamente como o comportamento do ChatGPT pode afetar emocionalmente os utilizadores, ouvindo atentamente os relatos do que estão a vivenciar”, acrescentou a OpenAI.
ZAP // CanalTech