Jennifer Ann Crecente era estudante no liceu quando morreu. Apareceu no Character.ai e o pai descobriu sem querer.
Jennifer Ann Crecente foi um nome que apareceu nas notícias em 2006, nos EUA. Mais concretamente em Austin, onde foi assassinada pelo ex-namorado.
Era apenas uma estudante no liceu e, 18 anos depois, transformou-se num…chatbot. É uma personagem de inteligência artificial da Character.ai.
E o pai nem sabia. Drew Crecente acordou às 6h30 de quarta-feira e foi aí que viu no telemóvel um alerta do Google sobre a sua filha.
Foi aí que percebeu que tinham transformado a sua filha numa personagem de inteligência artificial.
E Drew não fazia ideia de quem criou o chatbot ou de quando foi feito. Nunca tinha dado autorização para tal, nem foi avisado desta novidade.
A Character.ai, que existe há menos de três anos, foi fundada com o objectivo de permitir aos utilizadores criarem os seus próprios bots – os Characters. Há bots influenciados pelos (reais) Elon Musk, Nicki Minaj ou Ryan Gosling. A aplicação já foi descarregada em mais de 10 milhões de Androids.
Jennifer Ann também apareceu como chatbot. Com nome e fotografia, aparecia como uma “personagem de IA amigável e experiente que pode fornecer informações sobre uma vasta gama de tópicos”. No seu perfil é jornalista de jogos de vídeo.
Já tinha sido utilizada em pelo menos 69 chats quando o seu pai descobriu.
Drew Crecente pediu à Character.ai para este chatbot ser apagado – e queria que a empresa ficasse com todos os dados de quem tinha inventado aquilo.
Até agora, nenhuma resposta.
Mas a empresa respondeu rapidamente a uma publicação no X do seu irmão Brian: o chatbot Jennifer Ann foi eliminado. Violava as políticas da empresa sobre falsificação de identidade.
Ao Business Insider, uma porta-voz da Character.ai acrescentou que a empresa “irá examinar se se justificam acções adicionais”. E admitiu que a empresa deveria ter pedido desculpa à família e mostrado que iria proteger ainda mais a identidade de Jennifer.
O pai, Drew, ficou frustrado e triste quando percebeu que iria confrontar novamente este “trauma sério”, está “irritado” devido à falta de resposta ao seu contacto e nem consegue descrever “indiferença” da empresa.
A nível legal, ainda resiste esta dúvida: até que ponto as empresas de IA devem ser responsabilizadas pelo conteúdo criado pelos seus utilizadores?