O seu cérebro guarda neste momento memórias claras e detalhadas de eventos que nuca aconteceram. São imagens criadas falsas, criadas por Inteligência artificial — mas que, mesmo que na altura tivesse conhecimento disso, neste momento tem dificuldade de distinguir de eventos reais.
Provavelmente, terá visto vídeos a circular online de Donald Trump e Elon Musk a fazer coisas extravagantes – a recriar cenas da série de televisão Breaking Bad, por exemplo.
Pode também ter visto filmagens do presidente dos EUA e do CEO da Tesla a dançar ao som do sucesso ‘YMCA’ dos Village People durante uma festa de Passagem de Ano.
A questão importante é que uma destas coisas aconteceu realmente — enquanto a outra é uma ficção criada com Inteligência Artificial.
Provavelmente, lembra-se de ambas as imagens. Mas consegue lembrar-se de qual é o evento real, e o fictício?
Em psicologia, uma ‘estrutura de monitorização de fonte‘ descreve os processos envolvidos na identificação da origem das nossas memórias. A estrutura regista a fonte de uma memória como uma peça de informação. É codificada na memória juntamente com outros aspetos do que experimentamos.
A ‘etiqueta’ que indica de onde veio a memória pode facilmente desvanecer-se, mesmo enquanto outros aspetos da memória persistem, explica-nos a BBC Science Focus.
Desta forma, nas nossas mentes, as imagens geradas por IA correm o risco de se confundir com eventos do mundo real. E este é um problema que pode piorar à medida que a qualidade das imagens e o vídeos criados por IA melhora.
Esta separação entre o conteúdo de uma memória versus a sua fonte acontece constantemente. Com que frequência reconhece o rosto de um ator no ecrã, mas apesar da sua familiaridade, não consegue recordar que outros filmes ou programas de televisão o viu?
Estas mesmas falhas de memória ajudam a explicar como é fácil manipular ‘memórias falsas’, mostram vários estudos conduzidos por Elizabeth Loftus, conceituada psicóloga norte-americana que, diz a The New Yorker, mudou o “significado de memória”.
Na sua pesquisa, Loftus observou que quando certas ideias nos são sugeridas por outros, incorporamo-las nas nossas próprias mentes, mas mais tarde esquecemo-nos de onde as ideias inicialmente vieram. Podem então ser facilmente confundidas com eventos que realmente nos aconteceram.
De acordo com as descobertas de Loftus, parece provável que a IA seja capaz de plantar facilmente memórias falsas nas nossas mentes — especialmente se consumirmos o conteúdo artificial num ambiente similar àquele em que consumimos notícias reais.
E este é mais um aspeto a ter em consideração nas discussões em curso nos meios científicos obre a Inteligência Artificial: como podemos marcar o conteúdo gerado por IA para que nos seja mais fácil recordarmos que não é real.
Entretanto, se ficou com dúvidas… sim, Elon e Donald dançaram ao som de YMCA — e as imagens não são deepfake. Já a recriação de Breaking Bad foi feita por IA.