Nova camada de realismo nos vídeos falsos gerados por IA, que agora fintam a deteção dos batimentos cardíacos humanos reais, segundo um novo estudo. “Agora, só porque uma pessoa tem um pulso mensurável num vídeo, isso não significa que possamos assumir que ela é real”.
A cada dia que passa, a Inteligência Artificial (IA) torna-se mais realista, e a tecnologia deepfake acaba de atingir um novo, assustador marco para evitar ferramentas de deteção, desestabilizado ainda mais a ténue linha entre o bem e o mal.
Segundo um estudo publicado esta quarta-feira na Frontiers in Imaging, a tecnologia deepfake gerada por IA consegue agora imitar batimentos cardíacos humanos reais.
A confirmar-se, ao “fintar” métodos de deteção baseados em sinais fisiológicos, a técnica traz toda uma nova camada de realismo aos vídeos que, muitas vezes, já não conseguimos hoje distinguir da realidade.
Atualmente, as ferramentas de deteção que se provam mais eficazes para detetar estes vídeos e imagens falsas dependiam da identificação de mudanças subtis na cor da pele, provocadas pelo fluxo sanguíneo. Mas o novo estudo do Instituto Fraunhofer de Telecomunicações, na Alemanha, garante que alguns deepfakes podem agora simular esses sinais com precisão suficiente para enganar os sistemas de deteção.
Os investigadores, liderados por Peter Eisert, desenvolveram uma ferramenta de deteção destinada a analisar sinais de frequência cardíaca em vídeos, baseada na tecnologia de imagem médica chamada fotopletismografia remota, altamente precisa, segundo o BBC Science Focus.
Para testar a sua eficácia, gravaram vídeos reais de participantese monitorizaram, ao mesmo tempo, as suas frequências cardíacas. Depois substituíram digitalmente os rostos dos participantes por versões alteradas. E confirmou-se o pior cenário: a ferramenta de deteção identificou sinais de pulsação realistas nos deepfakes, semelhantes aos da filmagem original.
“Agora, só porque uma pessoa tem um pulso mensurável num vídeo, isso não significa que possamos assumir que ela é real”, alerta Hany Farid, da Universidade da Califórnia, em Berkeley, que não participou no estudo, à New Scientist. Mas também lembra que “só porque um ou alguns geradores de deepfakes conseguem reproduzir este sinal fisiológico, isso não significa que todos os geradores de deepfakes o consigam fazer”.
Face a este novo obstáculo, os investigadores já começaram a explorar novos, mas parecidos métodos de deteção de deepfakes, como a deteção de outros padrões únicos de fluxo sanguíneo no rosto ou de detalhes microscópicos da imagem, como variações de brilho dos píxeis, na maioria das vezes impercetíveis ao olho humano.
“À medida que o coração bate, o sangue flui pelos vasos sanguíneos e chega ao rosto”, disse Eisert à BBC. “Depois, é distribuído por toda a área facial, e há um pequeno atraso nesse movimento que podemos detetar em imagens reais.”
Por enquanto, o bem e o mal continuam na corrida para ficar um passo à frente do outro.
Espírito crítico, capacidade de análise, raciocínio e uma completa boa educação (matemática, filosofia, língua materna, etc.), são algumas das melhores defesas contra deepfakes (que só vão ficar mais refinados), bolhas de (des)informação, redes (anti)sociais e, ainda, os aldrabões humanos de sempre. Infelizmente, tudo o que vem a ser desconstruído desde há décadas. Protejam-se, porque ninguém vai cuidar de vós.