/

24 milhões: burla com IA rouba multinacional. Criminosos fingiram ser diretor financeiro

ZAP // Dall-E-2

Deepfake: os autores da fraude usaram a tecnologia para se fazerem passar por um dos quadros da empresa.

Uma empresa multinacional foi roubada em quase 26 milhões de dólares (24 milhões de euros), numa fraude baseada na tecnologia “deepfake”, que cria vídeos com recurso a inteligência artificial, anunciou hoje a polícia de Hong-Kong.

Naquele que foi dos primeiros casos na cidade, os autores da fraude usaram a tecnologia para se fazerem passar por um dos quadros da empresa.

Um “deepfake” é uma gravação de vídeo, ou de áudio, produzida ou modificada com recurso a inteligência artificial. A técnica tem o potencial de gerar desinformação, sendo por exemplo possível colocar pessoas a dizer coisas que realmente nunca disseram, ou substituir as caras das pessoas, sempre de forma tão perfeita que é difícil detetar-se o engano.

Um empregado de uma empresa num centro financeiro chinês recebeu “chamadas por videoconferência de alguém que se fazia passar por um quadro superior da sua empresa e que lhe pedia para transferir dinheiro para determinadas contas bancárias”, disse a polícia citada pela agência de notícias AFP.

A polícia recebeu um relatório sobre o incidente a 29 de janeiro, altura em que cerca de 26 milhões de dólares já tinham sido perdidos através de 15 transferências.

“As investigações ainda estão em curso e até à data não foram efetuadas quaisquer detenções”, afirmou a polícia, sem revelar o nome da empresa.

De acordo com os meios de comunicação social de Hong Kong, a vítima trabalhava no departamento financeiro e os criminosos fizeram-se passar pelo diretor financeiro da empresa, com sede no Reino Unido.

Um oficial superior da polícia, Baron Chan, disse que a videoconferência envolveu vários participantes, mas todos, exceto a vítima, estavam a fingir ser outras pessoas.

“Os criminosos encontraram vídeos e áudios disponíveis publicamente na rede YouTube e depois utilizaram a tecnologia ´deepfake´ para imitar as vozes… para enganar a vítima e fazê-la seguir as suas instruções”, disse Baron Chan aos jornalistas.

Os vídeos ´deepfake´ eram gravados e não envolviam qualquer diálogo ou interação com a vítima, acrescentou.

ZAP // Lusa

Deixe o seu comentário

Your email address will not be published.