A pesquisa concluiu que é possível fazer as pessoas acreditar em coisas que nunca aconteceram com o recurso às deepfakes.
Um novo estudo publicado na PLOS One explora o poder intrigante das deepfakes na distorção da memória humana. Os autores usaram esta tecnologia para criar vídeos de remakes falsos de filmes e conseguiram convencer os participantes a acreditar nestas falsas memórias.
O estudo envolveu 436 participantes que foram expostos a vários vídeos deepfake apresentados como remakes reais de filmes. Por exemplo, um dos vídeos mostrava Will Smith a protagonizar The Matrix, outro tinha Charlize Theron a protagonizar Captain Marvel, explica o Daily Beast..
Surpreendentemente, cerca de 49% dos voluntários acreditaram que estes vídeos manipulados eram genuínos, com uma proporção significativa a até dizer que preferiam o remake em relação ao original.
Outra conclusão interessante foi que houve vários casos em que apenas uma descrição em texto da deepfake se saiu tão bem ou até melhor do que o próprio vídeo na criação da memória falsa. Isto indica que os meios convencionais de propagação de desinformação, como as notícias falsas, poderão ser tão potentes quanto a IA.
“Este é o grande problema da desinformação. Mais do que a qualidade da informação e a qualidade das fontes, existe o problema de que, quando as pessoas querem que algo seja verdade, elas tentarão que seja verdade”, afirma Christopher Schwartz, investigadorde cibersegurança e desinformação, ao Daily Beast.
Embora os humanos possam não ser necessariamente influenciados por deepfakes ou notícias falsas, é mais provável acreditarmos nestes conteúdos quando eles vão ao encontro daquilo em que queremos acreditar. Um exemplo disso foram as montagens fotográficas de Donald Trump a ser preso ou do Papa a usar um casaco.
No entanto, há esperança de que esta tecnologia não será abusada, já que os participantes também se mostraram preocupados sobre o possível uso errado de deepfakes de IA nos filmes, uma das razões que está a motivar a atual greve dos atores e guionistas em Hollywood.
“Eles não queriam assistir a um filme com novos atores onde os intérpretes não fossem adequadamente compensados ou não consentissem com a sua inclusão no projeto”, explica Murphy.
Murphy aconselha contra ainda reações precipitadas às tecnologias emergentes com base no medo. “Devemos sempre reunir evidências dos danos em primeiro lugar, antes de nos apressarmos a resolver problemas que presumimos que possam existir”, remata.