/

Israel usa Inteligência Artificial para decidir quem morre em Gaza

1

IDF

A utilização da Inteligência Artificial (IA) por Israel na guerra atingiu um novo patamar com o desenvolvimento do Lavender, um programa concebido para selecionar alvos para ataques aéreos em Gaza.

Este sistema, implementado pelas Forças de Defesa de Israel (IDF, em inglês), marca um avanço na automatização da guerra. A Lavender, cujo nome deriva da flor lavanda, tem sido utilizada para marcar milhares de palestinianos como potenciais alvos de ataques aéreos durante o conflito em Gaza.

De acordo com uma investigação conjunta da revista +972, Local Call e The Guardian, a Lavender foi responsável por pelo menos 15 mil mortes entre 7 de outubro e 24 de novembro de 2023.

O sistema funciona através da análise de dados recolhidos de mais de 2,3 milhões de residentes da Faixa de Gaza, atribuindo a cada indivíduo uma pontuação que indica a sua probabilidade de estar filiado no Hamas ou na Jihad Islâmica.

Os críticos argumentam que a utilização da Lavender levanta sérias questões éticas relativamente à seleção indiscriminada de indivíduos com base em algoritmos probabilísticos.

A conceção do sistema, que dá prioridade à eficiência em detrimento da precisão, resultou em danos colaterais significativos, com até 300 civis mortos num único ataque aéreo. Além disso, a falta de transparência relativamente aos parâmetros e ao processo de decisão da Lavender suscita preocupações, segundo o El País.

As IDF têm defendido a utilização da IA nas decisões sobre alvos, alegando que estes sistemas se destinam a ajudar os operadores humanos e não a substituí-los totalmente. No entanto, os relatórios sugerem que os oficiais militares se baseiam frequentemente apenas nas recomendações da Lavender sem efetuarem verificações exaustivas, o que conduz a decisões de seleção de alvos potencialmente erradas.

A legalidade da utilização de sistemas de IA como a Lavender na guerra é também objeto de debate. Enquanto alguns argumentam que estas tecnologias estão em conformidade com o direito humanitário internacional, outros afirmam que a sua utilização apresenta riscos significativos, nomeadamente em termos de proteção dos civis e de prevenção de crimes de guerra.

Para além das preocupações éticas e jurídicas, a utilização da Lavender realça ainda questões relacionadas com a vigilância e a privacidade digital. A recolha e análise generalizadas de dados sobre civis palestinianos, juntamente com a utilização de tecnologia de reconhecimento facial e outras medidas de vigilância, levantam sérias questões sobre as violações dos direitos humanos e comprometimento da privacidade em zonas de conflito.

ZAP //

1 Comment

  1. Israel so esta a testar o que num futuro proximo sera usado em todas as Guerras, preparem-se…

    Editar – 

Deixe o seu comentário

Your email address will not be published.