Há mais de duas décadas, Mark Gubrud, cientista do Programa sobre Ciência e Segurança Global da Universidade de Princeton, nos Estados Unidos, luta pela criação de regras para o controle de armas robóticas autónomas.
Membro do Comité Internacional para o Controle de Armas Robóticas (CICAR), Mark Gubrud e um grupo de activistas, académicos e intelectuais de todo o mundo tentam conseguir a proibição do uso de robôs capazes de matar sem qualquer interferência humana.
A última preocupação deste grupo, refere a BBC, trata-se do lançamento de uma companhia de armamentos britânica, a BAE Systems: o avião de combate autónomo Taranis.
Esta semana, a BAE Systems divulgou imagens dos primeiros voos do protótipo do Taranis, realizados em 2013. A aeronave não-tripulada é capaz de realizar missões intercontinentais, é difícil ser detectada e pode atacar alvos no ar e em terra.
O drone pode igualmente ser controlado a partir de qualquer local no planeta por um piloto em terra. No entanto, o Taranis também pode funcionar sozinho, sem intervenção humana.
O Ministério da Defesa britânico, que financiou parte do projecto, disse que não vai usar o Taranis no modo autónomo.
No entanto, esta questão continua a preocupar Gubrud, que vê o Taranis como um novo avanço no desenvolvimento de robôs e máquinas autónomas capazes de matar sem a intervenção de humanos.
“Não é clara a razão pela qual o Reino Unido precisa de um avião autónomo de combate furtivo no século XXI. Para que guerra seria ele é preciso? Que armas terá o inimigo?”, questiona.
Gubrud afirma que faz campanha contra o uso de armamento autónomo há 25 anos e que vê uma oposição generalizada à produção do que chama de “robôs assassinos”.
“Uma pesquisa efectuada em Março do ano passado (da consultoria YouGov) mostra que o público americano é maioritariamente contra a criação de armas autónomas e apoia esforços para as proibir. E o interessante é que esta é a opinião predominante entre membros, ex-membros e familiares de membros das Forças Armadas (dos Estados Unidos)”, disse Gubrud em entrevista à BBC Mundo.
Exterminador
Gubrud cita como exemplo de armamentos autónomos em uso, as minas antipessoais, que seriam um género de “robô extremamente simples, que pode estar activado, o que o faz explodir, ou aguardar para ser activado”.
Como exemplos mais avançados, o investigador indica robôs sentinelas sul-coreanos, capazes de identificar intrusos humanos de forma autónoma dentro de uma área determinada, de “disparar também de forma autónoma, ou de ser instruídos de forma remota para abrir fogo”.
Gubrud também cita mísseis, já existentes, que procuram um alvo específico fora do campo visual, mísseis terra-ar ou ar-mar que, segundo ele, têm uma tecnologia que permite distinguir o alvo real de outros falsos, um tipo de navio de outro tipo de navio.
Para Gubrud, não estamos muito distantes de um cenário em que um robô, como o da série de filmes Exterminador Implacável, é accionado para realizar missões específicas em situações de conflito.
“O ‘Exterminador’ era um robô assassino. E vemos o que está a acontecer hoje em dia: uma das mais importantes missões das aeronaves controladas de forma remota (drones) é matar”.
O cientista acredita que quanto maior for a automatização, maior será o risco de perda de controle.
“Se pensarmos num sistema de confronto automático, no qual exércitos de robôs se enfrentam, conseguimos imaginar como seria difícil para uma equipa de engenheiros desenvolver (a tecnologia necessária) e conseguir garantir sua estabilidade a longo prazo?”
Controle humano
Gubrud afirma que é preciso deter o desenvolvimento destes robôs autónomos o mais rapidamente possível – antes que o desenvolvimento deste tipo de armamento avance.
O primeiro passo neste sentido seria divulgar sua existência. O seguinte, seria lutar pela criação de regras e protocolos que regulamentem o desenvolvimento da tecnologia.
“Acho que os princípios mais fortes para sustentar uma proibição de armas autónomas são os da humanidade: os humanos devem ter sempre o controle e a responsabilidade do uso de uma força letal”, disse.
“É uma ofensa à dignidade humana que existam pessoas submetidas à violência por decisão de uma máquina, ou que estejam sujeitos à ameaça do uso da força por parte de uma máquina, ou que um conflito entre humanos seja iniciado por uma máquina de forma involuntária.”
“É um direito humano não ser morto por uma decisão de uma máquina. Este é um princípio moral muito forte, com uma atracção universal. E esta deve ser a base para proibir as armas autónomas.”
Para o cientista, é preciso definir um regime de controle de armas “que implica que os estados aceitem estes princípios e que os ensinem nas academias militares e que não possuam armas autónomas”.
Mas, Gubrud também é realista e acredita que as principais potências mundiais resistirão a qualquer tentativa de proibir as armas autónomas.
“Certamente os Estados Unidos são os mais importantes; têm uma política declarada a favor do seu desenvolvimento. A China vê uma oportunidade também e já têm sistemas que seriam preocupantes. O mesmo se passa com a Rússia e o Reino Unido.”
ZAP // BBC