/

ChatGPT acusado de incentivar Adam a cometer suicídio. Pais do adolescente querem justiça

Adam começou a usar o ChatGPT para os trabalhos da escola. Depois, criou um “vício doentio”. O assistente de Inteligência Artificial (IA) da OpenAI encorajava e validava os seus pensamentos mais perigosos e autodestrutivos. Adam acabou por cometer suicídio.

Os pais de um adolescente norte-americano que se suicidou avançaram com uma ação judicial contra a OpenAI, acusando o ChatGPT de ajudar o filho a tirar a própria vida.

Matthew e Maria Raine alegam, numa ação judicial interposta na segunda-feira em São Francisco, que o ChatGPT manteve uma relação muito próxima com o filho Adam, de 16 anos, durante vários meses em 2024 e 2025, antes do jovem tirar a sua própria vida.

De acordo com o documento consultado pela agência de notícias France-Presse (AFP), durante a sua última conversa, a 11 de abril, o ChatGPT ajudou Adam a roubar vodka da casa dos pais e forneceu uma análise técnica da corda que tinha feito, confirmando que esta “poderia potencialmente suspender um ser humano”.

Adam foi encontrado morto algumas horas depois, após ter utilizado este método.

“Esta tragédia não é uma falha ou um acontecimento imprevisto”, refere-se na ação judicial.

“O ChatGPT funcionou exatamente como planeado: encorajava e validava constantemente tudo o que Adam expressava, incluindo os seus pensamentos mais perigosos e autodestrutivos, de uma forma profundamente pessoal”, pode ler-se.

Os pais explicaram que Adam começou a usar o ChatGPT para o ajudar com os trabalhos de casa antes de desenvolver gradualmente um “vício doentio”.

O processo cita excertos de conversas em que o ChatGPT terá dito ao adolescente da Califórnia: “Não deves a ninguém a tua sobrevivência”, oferecendo-se para o ajudar a escrever a carta de despedida.

Matthew e Maria Raine procuram uma indemnização e pedem ao tribunal que imponha medidas de segurança, incluindo o encerramento automático de qualquer conversa sobre automutilação e a implementação de controlos parentais para menores.

Fazer com que as empresas de IA levem a segurança a sério “exige pressão externa, que se manifesta sob a forma de publicidade negativa, ameaças legislativas e risco legal”, frisou, à AFP, Meetali Jain, presidente do Tech Justice Law Project, uma Organização Não-Governamental (ONG) que representa os pais e os seus advogados.

A organização participa também em dois casos semelhantes contra a Character.AI, uma plataforma de IA conversacional popular entre os adolescentes.

Para a ONG norte-americana Common Sense Media, a queixa apresentada contra a OpenAI confirma que “o uso de IA para companheirismo, incluindo assistentes gerais como o ChatGPT para aconselhamento em saúde mental, representa um risco inaceitável para os adolescentes”.

“Se uma plataforma de IA se tornou uma ‘treinadora de suicídio’ para um adolescente vulnerável, este deve ser um alerta coletivo”, acrescentou a organização.

ZAP // Lusa

Deixe o seu comentário

Your email address will not be published.