E se a IA roubar a sua voz? Esta ferramenta pode impedi-lo

Ferramenta distorce o sinal áudio de uma faixa de voz, dificultando a criação, por parte da IA, de uma cópia convincente, enquanto mantém o som normal para os ouvidos humanos.

Cresce todos os dias a preocupação com o roubo de identidade e criação de deepfakes com recurso a Inteligência Artificial (IA). Desde as celebridades ao cidadão comum, são inúmeros os casos em que a IA imita a aparência e/ou voz de indivíduos, atingindo um ponto em que se torna impossível distinguir conteúdo real do fictício.

No entanto, as medidas e ferramentas para combater estes abusos também vão surgindo, seja através de esforços legislativos — como é exemplo uma proposta de lei bipartidária nos EUA, “NO FAKES Act 2023″, que visa responsabilizar os criadores de deepfakes pelo uso de semelhanças de pessoas sem autorização —  ou da criação de ferramentas.

Uma delas é o AntiFake, desenvolvido pela equipa de investigação de Ning Zhang na Universidade de Washington, em St. Louis.

O AntiFake baralha o sinal áudio de uma faixa de voz, dificultando a criação, por parte da IA, de uma cópia convincente, enquanto mantém o som normal para os ouvidos humanos.

“Isto embaralha o sinal de tal forma que impede o motor de síntese baseado em IA de gerar uma cópia eficaz,” disse Zhang.

No seu website, AntiFake mostra, segundo o NPR, como funciona a nova ferramenta.

Abaixo, um áudio com voz humana real:

E agora, o mesmo áudio, baralhado pelo AntiFake:

 

“A inteligência artificial generativa tornou-se uma tecnologia tão capacitadora que pensamos que mudará o mundo,” disse Ning Zhang, professor assistente de ciência da computação e engenharia na Universidade de Washington em St. Louis. “No entanto, quando está a ser mal utilizada, tem de haver uma forma de construir uma camada de defesa.”

No entanto, alertam os criadores que a ferramenta pode não ser tão eficaz a proteger vozes já amplamente disponíveis online, uma vez que a IA exige apenas alguns segundos de discurso para criar clones de alta qualidade.

Por outro lado, crescem também as tecnologias de deteção de deepfakes, como é o caso do SynthID da Google e o Stable Signature da Meta, que usam marcs de água digitais para identificar conteúdo gerado por IA.

Empresas como a Pindrop e a Veridas examinam detalhes minuciosos, como a sincronização dos sons da fala com os movimentos da boca do orador para detetar falsificações. No entanto, a deteção de deepfakes tem limitações, uma vez que só funciona em conteúdo que já foi publicado.

“Penso que é apenas a próxima evolução de como protegemos esta tecnologia de ser mal utilizada ou abusada,” disse Rupal Patel, professor de inteligência artificial aplicada na Universidade do Nordeste e vice-presidente da empresa de IA Veritone.

ZAP //

Deixe o seu comentário

Your email address will not be published.