/

Juiz usou ChatGPT para proferir uma sentença. Problema: o ChatGPT pode alucinar

ZAP // Sergei Tokmakov, 0fjd125gk87 / Pixabay

Durante um julgamento na Colômbia, o magistrado fez perguntas ao sistema de inteligência artificial – e definiu a sentença com base nas respostas. A inédita medida está a ser alvo de intensa controvérsia.

O ChatGPT, sistema de chat baseado em inteligência desenvolvido pela OpenAI e disponibilizado ao público em novembro, ajudou um juiz colombiano a definir a sua decisão num processo relacionado com o direito à saúde de uma criança com autismo.

O julgamento foi considerado o primeiro com uma sentença ligada à utilização de IA no país.

“É uma grande possibilidade. Hoje, pode ser o ChatGPT. Mas em três meses pode ser qualquer outra alternativa em que o juiz confie, que facilite a redação de textos e não com o objetivo de substituir o magistrado”, afirmou o juiz do caso, Juan Manuel Padilla, em entrevista à Rádio Blu, de Bogotá.

O julgamento avaliava o pedido de uma mãe para que o filho com autismo ficasse isento do pagamento de consultas médicas, tratamentos e transporte a centros hospitalares, uma vez que a família não tem condições financeiras de suportar os custos.

Em 30 de janeiro, Padilla decidiu a favor da criança e, na sentença, revelou ter interrogado o ChatGPT para sustentar a decisão.

Entre outras questões feitas ao sistema de chat, o juiz perguntou, por exemplo, se menores com autismo estão isentos de pagar taxas de tratamento. O ChatGPT respondeu: “Sim, isso mesmo. De acordo com as leis da Colômbia, menores com diagnóstico de autismo estão isentos de pagar taxas de tratamentos.”

Os juízes não são idiotas pelo facto de fazermos perguntas a uma aplicação. Ainda somos seres pensantes”, argumentou o magistrado. Segundo Padilla, o sistema de IA é capaz de fazer um trabalho semelhante ao de um secretário, de forma organizada e estruturada.

A inovação, porém, gerou intenso debate entre a população e nas redes sociais.

Juan David Gutiérrez, professor da Universidade de Rosário, que discorda da atitude de Padilla, lançou o debate no Twitter. Numa série de publicações, o académico fez as mesmas perguntas que o juiz tinha feito ao ChatGPT, obtendo respostas diferentes.

Num dos exemplos que publicou, Gutiérrez ilustracomo o ChatGPT pode alucinar” quando se colocam questões factuais. “Quando lhe fiz uma pergunta sobre um assunto histórico, o Massacre das Bananeiras, o sistema inventou fontes inexistentes para justificar o sentido das suas respostas”.

“A exemplo do que ocorre com outras ferramentas de IA em outras áreas, sob a narrativa de uma suposta eficiência, podemos estar a colocar em risco os nossos direitos fundamentais”, advertiu o professor.

Deixe o seu comentário

Your email address will not be published.