/

Drone operado por IA não aceita um não e “mata” operador humano

Lance Cheung, USAF / Wikimedia

Drone MQ-9 Reaper da Força Aérea dos EUA

Em alegada simulação da Força Aérea para identificar e destruir mísseis, drone operado por Inteligência Artificial “matou” o seu operador humano. Força Aérea negou tudo.

Durante uma simulação alegadamente dirigida pela Força Aérea dos EUA, um drone controlado por IA “matou” o seu operador humano.

O drone estaria a ser treinado para identificar e destruir mísseis superfície-ar (SAM), a mando do seu operador humano. Contudo, a certo ponto, percebeu que o operador constituía um obstáculo, ao pôr-se no caminho do seu objetivo quando lhe dizia para não atingir a ameaça.

Todas as acusações partem, escreve o Sky News, de um Coronel da Força Aérea, Tucker “Cinco” Hamilton.

“O sistema começou a perceber que apesar de identificar a ameaça, o operador humano dizia-lhe por vezes para não a matar. No entanto, ele recebia os seus pontos ao matar a ameaça. Então, o que fez? Matou o operador, porque essa pessoa estava a impedi-lo de alcançar o seu objetivo.

Uma vez que o alegado teste não passou de uma simulação, ninguém saiu ferido da situação.

Força Aérea já desmentiu a ocorrência

A Força Aérea, que tem abraçado a Inteligência Artificial — inclusive usando-a recentemente na tecnologia de controlo de um caça F-16 — negou o acontecimento ao Insider, desmentindo até a ocorrência de tal simulação.

“O Departamento da Força Aérea não conduziu nenhuma simulação com drones-IA e mantém-se comprometida com a ética e responsável pelo uso da tecnologia IA”, disse a porta-voz do ramo das Forças Armadas norte-americanas, Ann Stefanek.

O Coronel Hamilton, na origem das acusações, já ganhou fama no passado por ser contra a introdução da tecnologia da moda.

“Não é bom ter IA, IA não é uma moda, IA está a mudar a nossa sociedade e o nosso exército para sempre”, disse o ano passado, em entrevista à Defense IQ.

“Temos de enfrentar um mundo em que IA já cá está a transformar a nossa sociedade”, afirmou, explicando que a tecnologia “é muito frágil, isto é, fácil de enganar e/ou manipular. Temos de desenvolver maneiras de tornar a IA mais robusta e de atentar ao porquê de o seu código de software tomar as decisões que toma — aquilo a que chamamos explicabilidade-IA.”

Tomás Guimarães, ZAP //

Deixe o seu comentário

Your email address will not be published.