/

Militares israelitas criam sistema de IA estilo ChatGPT baseado em espionagem na Palestina

Novo modelo de IA quer revolucionar a espionagem e já permite obter informações adicionais sobre os dados de videovigilância que recolhe (e até pediu, sem sucesso, ajuda à OpenAI).

Uma investigação do The Guardian e dos órgãos de comunicação locais +972 Magazine e Local Call revela que a Unit 8200 das Forças Armadas israelitas treinou um modelo de IA para compreender o árabe, utilizando grandes volumes de conversas telefónicas e mensagens de texto, obtidas através da sua extensa vigilância dos territórios ocupados.

Este sistema permitiu criar uma espécie de ChatGPT, que responde às perguntas dos militares sobre, por exemplo, informações acerca dos alvos que estão a ser espiados na Palestina.

O modelo estava já a ser criado pela agência de espionagem de Israel, e o modelo foi acelerado depois do início da guerra com a Palestina, em 2023.

Trata-se de um LLM (grande modelo de linguagem) — um sistema de aprendizagem que gera texto semelhante ao escrito por um humano, e, na verdade, as suas capacidades foram parcialmente reveladas publicamente o ano passado, numa conferência em Telavive sobre inteligência artificial militar.

“Tentámos criar o maior conjunto de dados possível e recolher todos os dados que o Estado de Israel alguma vez teve em árabe”, disse na altura o antigo funcionário, Chaked Roger Joseph Sayedoff. O modelo, contou, exigia “quantidades psicóticas” de dados.

Uma fonte interna, familiarizada com o projeto, revelou ao The Guardian que “não se trata apenas de evitar ataques a tiro, posso agora seguir os ativistas dos direitos humanos, monitorizar a construção palestiniana na Área C (da Cisjordânia). Tenho mais ferramentas para saber o que cada pessoa na Cisjordânia está a fazer“.

De acordo com a investigação dois três órgãos de comunicação, para ajudar a colmatar as dificuldades da equipa em treinar o chatbot, a unidade chegou mesmo a enviar um pedido — sem sucesso — à OpenAI para executar o ChatGPT nos sistemas seguros das forças armadas. A OpenAI recusou-se a comentar.

Mas os militares acabaram por contar coma a ajuda de militares de reserva que tinham trabalhado em grandes empresas tecnológicas norte-americanas, como a Google, a Meta e a Microsoft.

“Não existem transcrições de chamadas ou conversas de WhatsApp na Internet. Não existem na quantidade necessária para treinar um modelo deste tipo”, disse uma fonte inteirna. O desafio, acrescentaram, era “recolher todo o texto falado em árabe que a unidade já teve e colocá-lo num local centralizado”. Os dados de treino do modelo acabaram por ser constituídos por cerca de 100 mil milhões de palavras.

Como o ZAP já noticiara, as IDF (Forças de Defesa de Israel), já utilizavam IA como arma no conflito. Por exemplo, criam “listas de morte” geradas por IA para, em 20 segundos, decidir os alvos palestinianos a abater.

Tem também um programa de reconhecimento facial de palestinianos baseado no Google Fotos, que cria “listas de alvos”. Outras agências e serviços secretos como a norte-americana CIA, também usam IA para espionagem.

Um especialista da Human Rights Watch, afirmou que utilizar material de vigilância para treinar um modelo de IA é “invasivo e incompatível com os direitos humanos”.

ZAP //

Deixe o seu comentário

Your email address will not be published.