Como não ser enganado pela IA

ZAP // Dall-E-2

Imagem criada com recurso a Inteligência Artificial

O rápido avanço das tecnologias de Inteligência Artificial (IA) tem tornado cada vez mais difícil distinguir os conteúdos gerados por IA e aqueles ‘mesmo reais’. A capacidade de detetar imagens, vídeos, áudio e textos manipulados por IA é fundamental para nos protegermos dos enganos do “Novo Mundo”.

A desinformação gerada por IA trouxe desafios únicos, devido à escala, velocidade e facilidade de produção de conteúdos falsos, que não exigem grandes recursos.

Várias ferramentas permitem, hoje em dia, a criação de imagens, vídeos e áudios quase indistinguíveis da realidade.

Contudo, ainda é possível identificar alguns erros comuns em conteúdos gerados por IA. Para ajudar a identificá-los, nos vários “planos multimédia”, a New Scientist elaborou quatro listas, com dicas para detetar as imperfeições mais comuns.

Cinco tipos comuns de erros em imagens IA

  • Implausibilidades socioculturais: A cena está a representar um comportamento raro, invulgar ou surpreendente para determinadas culturas ou figuras históricas?
  • Implausibilidades anatómicas: Observe com atenção. As partes do corpo, como as mãos, têm uma forma ou tamanho invulgar? Os olhos ou a boca têm um aspeto estranho? Algumas partes do corpo fundiram-se?
  • Artefactos estilísticos: A imagem parece pouco natural, quase demasiado perfeita ou estilística? O fundo parece estranho ou como se lhe faltasse alguma coisa? A iluminação é estranha ou variável?
  • Implausibilidades funcionais: Algum objeto parece bizarro ou como se não fosse real ou não funcionasse? Por exemplo, há botões ou fivelas de cintos em sítios estranhos?
  • Violações da física: As sombras apontam em direções diferentes? Os reflexos dos espelhos são consistentes com o mundo representado na imagem?

Seis dicas para detetar vídeos gerados por IA

  • Movimentos da boca e dos lábios: Há momentos em que o vídeo e o áudio não estão completamente sincronizados?
  • Falhas anatómicas: O rosto ou o corpo tem um aspeto estranho ou move-se de forma não natural?
  • Rosto: Procure inconsistências na suavidade do rosto ou rugas à volta da testa e das bochechas, bem como sinais faciais.
  • Iluminação: A iluminação é inconsistente? As sombras comportam-se como seria de esperar? Preste especial atenção aos olhos, sobrancelhas e óculos da pessoa.
  • Cabelo: Os pêlos faciais têm um aspeto estranho ou movem-se de forma estranha?
  • Pestanejar: Pestanejar demasiado ou pouco pode ser sinal de um deepfake.

Cinco dicas para descobrir se uma conta é um bot

  • Emojis e hashtags: A utilização excessiva destes elementos pode ser um sinal.
    Frases, escolhas de palavras ou analogias invulgares. Uma redação invulgar pode indicar um bot de IA.
  • Repetição e estrutura: Os bots podem utilizar palavras repetidas que seguem formas semelhantes ou rígidas e podem utilizar excessivamente determinados termos de calão.
  • Fazer perguntas: Estas podem revelar a falta de conhecimento de um bot sobre um tópico – especialmente quando se trata de locais e situações locais.
  • Presuma o pior: se uma conta de rede social não for um contacto pessoal e a sua identidade não tiver sido claramente validada ou verificada, pode muito bem ser um bot de IA.

Quatro formas de ouvir se um áudio é clonado ou falsificado

  • Figuras públicas: Se o clip de áudio for de um funcionário eleito ou de uma celebridade, verifique se o que está a dizer é consistente com o que já foi relatado ou partilhado publicamente sobre as suas opiniões e comportamento.
  • Procurar incoerências: Compare o clip de áudio com vídeos ou clips de áudio previamente autenticados que apresentem a voz da mesma pessoa. Existem incoerências no som da voz ou nos seus maneirismos de discurso?
  • Silêncios incómodos: Se estiver a ouvir uma chamada telefónica ou uma mensagem de voz e o orador estiver a fazer pausas invulgarmente longas enquanto fala, pode estar a utilizar tecnologia de clonagem de voz alimentada por IA.
  • Estranho e prolixo: Quaisquer padrões de discurso robótico ou uma forma de falar invulgarmente prolixa podem indicar que alguém está a utilizar uma combinação de clonagem de voz para imitar a voz de uma pessoa e um modelo linguístico de grande dimensão para gerar as palavras exatas.

ZAP //

Deixe o seu comentário

Your email address will not be published.