O exército de Israel adotou, de forma inquestionável, as “listas de morte” sugeridas por um sistema de Inteligência Artificial (IA). Com esta tecnologia, cada soldado gastou apenas “20 segundos” em cada alvo antes de autorizar um bombardeamento. Dezenas de civis morreram inocentemente.
Nos primeiros dias da guerra na Faixa de Gaza, o Exército israelita dependeu quase inteiramente de um sistema de IA que ‘marcou’ 37.000 palestinianos como suspeitos de pertencerem ao Hamas.
No entanto, esse sistema acabou por vitimar “indivíduos que tiham apenas uma ligação ténue com grupos militantes, ou nenhuma ligação”.
A conclusão é de uma investigação, divulgada esta quarta-feira, pelo jornal israelita Sicha Mekomit (chamado +972 na sua versão inglesa), baseada em fontes dos serviços secretos.
O trabalho refere que os soldados israelitas adotaram inquestionavelmente as “listas de morte” recomendadas por um sistema de IA, que até agora não tinha sido utilizado: o Lavender.
Depois de os nomes surgirem, bastaram depois cerca de “20 segundos” em cada alvo antes de se autorizar um bombardeamento.
IA de “Inocentes Abatidos”?
A investigação destaca que o Lavender não é tão sofisticado e apresenta uma margem de erro em cerca de 10% dos casos, podendo por isso ocasionalmente incriminar indivíduos sem qualquer ligação a grupos militares.
Além disso, segundo a reportagem, o Exército atacou muitos possíveis combatentes de baixa patente, sistematicamente nas suas casas e “normalmente à noite, enquanto toda a sua família estava presente”, considerando-os um alvo mais fácil, aumentando a número de mortes de civis.
“Não queríamos matar agentes [do Hamas] apenas quando estavam em um edifício militar ou a participar numa operação militar”, contou um oficial de inteligência ao +972. “Pelo contrário, as Forças de Defesa de Israel bombardearam [os alegados combatentes] nas suas casas, sem hesitação, como primeira opção”, acrescentou, alegando que “o sistema está desenhado para procurá-los nestas situações”.
Nas primeiras semanas da guerra, segundo duas fontes anónimas citadas pela investigação, o Exército decidiu que o ataque contra um agente do Hamas identificado por Lavender poderia resultar na morte de “15 ou 20 civis”, uma proporção de baixas não-combatentes sem precedentes.
Além disso, o Exército preferiu utilizar mísseis não guiados contra estes militantes de menor escalão, vulgarmente conhecidos como “bombas mudas” e documentados em Gaza no final de dezembro pela estação CNN, capazes de destruir edifícios inteiros e causar outras vítimas.
“Não é aconselhável desperdiçar bombas caras com pessoas sem importância. É muito caro para o país e há escassez [dessas bombas]”, explicou um oficial de inteligência a esta reportagem, sob condição de anonimato.
De acordo com esta investigação, o uso deste e de outros sistemas de IA como o “Gospel”, baseado em algoritmos, estará relacionado ao elevado número de mortes de civis na Faixa de Gaza.
Na semana passada, o ZAP noticiou que o Israel está a criar uma base de dados que contempla o resultado do reconhecimento facial de palestinianos na Faixa de Gaza, sem o seu consentimento ou conhecimento.
ZAP // Lusa
Guerra no Médio Oriente
-
12 Dezembro, 2024 Cessar-fogo natalício: Zelenskyy recusou? Há possível acordo de reféns em GazaTambém em: Guerra na Ucrânia
-
5 Dezembro, 2024 Reino Unido: “Estamos à beira da terceira era nuclear”Também em: Guerra na Ucrânia
-
3 Dezembro, 2024 Cessar do cessar-fogo: há outra vez mortes no Líbano