Ferramenta distorce o sinal áudio de uma faixa de voz, dificultando a criação, por parte da IA, de uma cópia convincente, enquanto mantém o som normal para os ouvidos humanos.
Cresce todos os dias a preocupação com o roubo de identidade e criação de deepfakes com recurso a Inteligência Artificial (IA). Desde as celebridades ao cidadão comum, são inúmeros os casos em que a IA imita a aparência e/ou voz de indivíduos, atingindo um ponto em que se torna impossível distinguir conteúdo real do fictício.
No entanto, as medidas e ferramentas para combater estes abusos também vão surgindo, seja através de esforços legislativos — como é exemplo uma proposta de lei bipartidária nos EUA, “NO FAKES Act 2023″, que visa responsabilizar os criadores de deepfakes pelo uso de semelhanças de pessoas sem autorização — ou da criação de ferramentas.
Uma delas é o AntiFake, desenvolvido pela equipa de investigação de Ning Zhang na Universidade de Washington, em St. Louis.
O AntiFake baralha o sinal áudio de uma faixa de voz, dificultando a criação, por parte da IA, de uma cópia convincente, enquanto mantém o som normal para os ouvidos humanos.
“Isto embaralha o sinal de tal forma que impede o motor de síntese baseado em IA de gerar uma cópia eficaz,” disse Zhang.
No seu website, AntiFake mostra, segundo o NPR, como funciona a nova ferramenta.
Abaixo, um áudio com voz humana real:
E agora, o mesmo áudio, baralhado pelo AntiFake:
“A inteligência artificial generativa tornou-se uma tecnologia tão capacitadora que pensamos que mudará o mundo,” disse Ning Zhang, professor assistente de ciência da computação e engenharia na Universidade de Washington em St. Louis. “No entanto, quando está a ser mal utilizada, tem de haver uma forma de construir uma camada de defesa.”
No entanto, alertam os criadores que a ferramenta pode não ser tão eficaz a proteger vozes já amplamente disponíveis online, uma vez que a IA exige apenas alguns segundos de discurso para criar clones de alta qualidade.
Por outro lado, crescem também as tecnologias de deteção de deepfakes, como é o caso do SynthID da Google e o Stable Signature da Meta, que usam marcs de água digitais para identificar conteúdo gerado por IA.
Empresas como a Pindrop e a Veridas examinam detalhes minuciosos, como a sincronização dos sons da fala com os movimentos da boca do orador para detetar falsificações. No entanto, a deteção de deepfakes tem limitações, uma vez que só funciona em conteúdo que já foi publicado.
“Penso que é apenas a próxima evolução de como protegemos esta tecnologia de ser mal utilizada ou abusada,” disse Rupal Patel, professor de inteligência artificial aplicada na Universidade do Nordeste e vice-presidente da empresa de IA Veritone.