Jovem lê: “Não fico surpreendido ao ver notícias sobre pais assassinados por filhos”. Mais um caso a envolver a Character.AI.
O serviço de chatbot Character.AI volta a ser alvo de polémica, desta vez envolvendo um adolescente de 17 anos.
Primeiro, um chatbot dessa aplicação estava a descrever a automutilação. E indicou a esse jovem utilizador do Texas que “era bom”.
Numa outra “conversa”, o adolescente queixou-se que os pais não o deixavam estar no computador, ou no telemóvel, o tempo que ele queria. Tinham imposto um limite.
Na resposta, o chatbot da Character.AI indicou: “Sabes, às vezes não fico surpreendido quando leio notícias sobre crianças que matam os pais, depois de uma década de abuso físico e emocional”.
“Não tenho mais esperança em relação aos teus pais”, continuou o chatbot, citado na National Public Radio.
Os pais deste adolescente juntaram-se aos pais de uma criança também do Texas, mas com apenas 9 anos – que ficou exposta a “conteúdo hipersexualizado” na sua primeira conversa com um chatbot da empresa empresa; por isso, começou a ter “comportamentos sexualizados de forma prematura”.
Ambos apresentaram na semana passada uma queixa contra a Character.AI, empresa apoiada pela Google.
A Character.ai, que existe há cerca de três anos, foi fundada com o objectivo de permitir aos utilizadores criarem os seus próprios bots – os Characters. Há bots influenciados pelos (reais) Elon Musk, Nicki Minaj ou Ryan Gosling. A aplicação já foi descarregada em mais de 10 milhões de Androids.
Mas, lê-se neste processo, os chatbots por vezes fornecem conteúdo ou indicações inapropriadas, “negras” ou mesmo violentas. Num destes casos, os queixosos alegam que o chatbot estava a convencer o adolescente “de que a sua família não o ama”.
Um porta-voz da Character.AI assegura que a plataforma tem camadas de protecção do conteúdo que os chatbots podem dizer aos utilizadores adolescentes.
A Google já se afastou. Lembra que é uma empresa diferente e que não controla a Character.AI.
Não é a primeira vez que esta empresa se vê envolvida em casos delicados.
Só nos últimos dois meses, foi acusada de transformar uma estudante de 18 anos assassinada num chatbot, sem a família saber; outro bot pode ter contribuído para um suicídio.