Em alegada simulação da Força Aérea para identificar e destruir mísseis, drone operado por Inteligência Artificial “matou” o seu operador humano. Força Aérea negou tudo.
Durante uma simulação alegadamente dirigida pela Força Aérea dos EUA, um drone controlado por IA “matou” o seu operador humano.
O drone estaria a ser treinado para identificar e destruir mísseis superfície-ar (SAM), a mando do seu operador humano. Contudo, a certo ponto, percebeu que o operador constituía um obstáculo, ao pôr-se no caminho do seu objetivo quando lhe dizia para não atingir a ameaça.
Todas as acusações partem, escreve o Sky News, de um Coronel da Força Aérea, Tucker “Cinco” Hamilton.
“O sistema começou a perceber que apesar de identificar a ameaça, o operador humano dizia-lhe por vezes para não a matar. No entanto, ele recebia os seus pontos ao matar a ameaça. Então, o que fez? Matou o operador, porque essa pessoa estava a impedi-lo de alcançar o seu objetivo.
Uma vez que o alegado teste não passou de uma simulação, ninguém saiu ferido da situação.
Força Aérea já desmentiu a ocorrência
A Força Aérea, que tem abraçado a Inteligência Artificial — inclusive usando-a recentemente na tecnologia de controlo de um caça F-16 — negou o acontecimento ao Insider, desmentindo até a ocorrência de tal simulação.
“O Departamento da Força Aérea não conduziu nenhuma simulação com drones-IA e mantém-se comprometida com a ética e responsável pelo uso da tecnologia IA”, disse a porta-voz do ramo das Forças Armadas norte-americanas, Ann Stefanek.
O Coronel Hamilton, na origem das acusações, já ganhou fama no passado por ser contra a introdução da tecnologia da moda.
“Não é bom ter IA, IA não é uma moda, IA está a mudar a nossa sociedade e o nosso exército para sempre”, disse o ano passado, em entrevista à Defense IQ.
“Temos de enfrentar um mundo em que IA já cá está a transformar a nossa sociedade”, afirmou, explicando que a tecnologia “é muito frágil, isto é, fácil de enganar e/ou manipular. Temos de desenvolver maneiras de tornar a IA mais robusta e de atentar ao porquê de o seu código de software tomar as decisões que toma — aquilo a que chamamos explicabilidade-IA.”