Os “robôs-fantasma” estão a chegar, e os especialistas em ética da Inteligência Artificial alertam para os problemas sociais levantados pelas “assombrações digitais” de entes queridos mortos.
A Internet está repleta de detalhes privados da vida das pessoas, deixados espalhados por todo o lado — muitos dos quais permanecem online muito tempo depois da morte.
E se essas relíquias forem utilizadas para simular entes queridos mortos? Não, não é uma hipótese académica — já está a acontecer. Funerárias chinesas estão a usar IA para que as pessoas falem com os mortos, cientistas suecos criam cópias digitais de pessoas mortas, e James Dean não morreu.
Os especialistas em ética da IA alertam para o facto de esta realidade estar a abrir-nos a um novo tipo de “assombração digital” por parte de “robôs mortos“.
Há milénios que as pessoas tentam falar com entes queridos falecidos, quer seja através de rituais religiosos, médiuns espirituais ou abordagens tecnológicas pseudocientíficas.
Mas o interesse atual na inteligência artificial generativa apresenta uma possibilidade inteiramente nova para amigos e familiares em luto – o potencial de interagir com avatares chatbot treinados com base na presença e nos dados online de um indivíduo falecido, incluindo a voz e a semelhança visual.
Embora ainda anunciados explicitamente como aproximações digitais, alguns dos produtos oferecidos por empresas como a Replika, HereAfter e Persona podem ser (e em alguns casos já são) utilizados para simular os mortos.
E embora possa ser difícil para alguns processar esta nova realidade, ou mesmo levá-la a sério, é importante lembrar que a indústria da “vida após a morte digital” não é apenas um nicho de mercado limitado a pequenas empresas.
Ainda no ano passado, a Amazon mostrou o potencial do seu assistente Alexa para imitar as vozes de um ente querido falecido utilizando apenas um curto clip de áudio.
Há décadas que os especialistas em ética da IA e os autores de ficção científica exploram e antecipam estas situações potenciais, nota o Popular Science.
Mas para os investigadores do Centro Leverhulme para o Futuro da Inteligência da Universidade de Cambridge, este “campo minado ético”, não regulamentado e não cartografado, já cá está. E, para o demonstrar, imaginaram três cenários fictícios que poderiam facilmente ocorrer em qualquer altura.
Num novo estudo, publicado esta quinta-feira na revista científica Philosophy and Technology, Tomasz Hollanek e Katarzyna Nowaczyk-Basińska, especialistas em ética da IA, basearam-se numa estratégia chamada “ficção de design”.
Criada pelo autor de ficção científica Bruce Sterling, a ficção de design refere-se a “uma suspensão da descrença na mudança conseguida através da utilização de protótipos diegéticos”. Basicamente, os investigadores criam eventos plausíveis juntamente com recursos visuais fabricados.
No seu estudo, os dois investigadores imaginaram três cenários hiper-reais de indivíduos fictícios que se depararam com problemas com várias empresas de “presença post-mortem” e, em seguida, criaram propriedades digitais fictícias, como sites falsos e capturas de ecrã de telefones.
Os investigadores centraram-se em três dados demográficos distintos – fornecedores de dados, receptores de dados e interagentes dos serviços.
Os “fornecedores de dados” são as pessoas nas quais se baseia um programa de IA, enquanto os “receptores de dados” são definidos como as empresas ou entidades que podem possuir a informação digital.
Os “interagentes dos serviço“, por sua vez, são os familiares, amigos e qualquer outra pessoa que possa utilizar um “deadbot” ou “ghostbot”.
Os resultados da pesquisa foram esclarecedores.
Numa peça de ficção de design, um utilizador adulto mostra-se impressionado com o realismo do chatbot do seu falecido avô, apenas para, muito pouco tempo mais tarde, começar a receber anúncios de “teste premium” e de serviços de entrega de comida ao estilo da voz do seu familiar.
Num outro caso, uma “mãe com uma doença terminal” cria um deadbot para o seu filho de oito anos para o ajudar a fazer o luto. Mas, ao adaptar-se às reacções da criança, a IA começa a sugerir encontros pessoais, causando assim danos psicológicos.
Num último cenário, um cliente idoso inscreve-se numa subscrição de 20 anos de um programa de IA na esperança de confortar a sua família. No entanto, devido aos termos de serviço da empresa, os seus filhos e netos não podem suspender o serviço, mesmo que não o queiram utilizar.
“Os rápidos avanços na IA generativa significam que quase qualquer pessoa com acesso à Internet e algum conhecimento básico pode reviver um ente querido falecido”, explica Nowaczyk-Basińska.
“Ao mesmo tempo, uma pessoa pode deixar uma simulação de IA como presente de despedida para os entes queridos — que não estão preparados para processar o seu luto desta forma”, acrescenta.
“Os direitos tanto dos dadores de dados como dos que interagem com os serviços de vida após a morte da IA devem ser igualmente salvaguardados.”
“Estes serviços correm o risco de causar um enorme sofrimento às pessoas se forem sujeitas a assombrações digitais indesejadas por parte de recriações de IA assustadoramente semelhantes às pessoas que perderam”, acrescenta Hollanek.
“O potencial efeito psicológico destas assombrações digitais, especialmente numa altura já difícil, pode ser devastador. Precisamos de começar a pensar agora sobre como mitigar os riscos sociais e psicológicos da imortalidade digital“, defende Nowaczyk-Basińska.