Pentágono está a explorar Inteligência Artificial para melhorar a tomada de decisões nucleares, mas responsável ressalva: nunca fará nada sem supervisão humana.
O Pentágono está a explorar aplicações de Inteligência Artificial (IA) para melhorar o seu programa de armas nucleares, revelou no mês passado o General da Força Aérea Anthony Cotton, responsável pelo arsenal nuclear dos EUA.
Na declaração, proferida, de acordo com a Air and Space Forces, na Conferência do Sistema de Informação de Inteligência do Departamento de Defesa de 2024, Cotton fez questão de garantir que a integração da IA servirá por enquanto apenas como uma ferramenta de apoio, e que nenhum sistema autónomo assumirá a tomada de decisões nucleares.
“A IA irá melhorar as nossas capacidades de tomada de decisões“, afirmou, esclarecendo que a supervisão humana continuará a ser parte integrante de qualquer processo que envolva meios nucleares, numa tentativa de dissipar os receios de um cenário “à la Terminator” de um programa nuclear conduzido por IA.
“Penso que é seguro dizer que não estão a falar da Skynet [rede neural artificial fictícia do famoso franchise de Hollywood]”, disse Alex Wellerstein, perito em segredos nucleares e especialista do Stevens Institute of Technology, ao 404 Media.
O compromisso dos militares dos EUA em modernizar as suas capacidades nucleares já era conhecido, depois de ter sido anunciado um orçamento projetado de 1,7 biliões de dólares. Embora Cotton tenha sido reservado sobre as aplicações específicas de IA, sugeriu que os sistemas avançados poderiam acelerar a análise de dados e melhorar os tempos de resposta, posicionando os EUA para ficar à frente dos rivais.
Cotton destacou a vantagem que a “IA avançada e a análise robusta de dados” poderiam trazer, descrevendo essas tecnologias como instrumentais na integração de capacidades convencionais e nucleares para fortalecer a dissuasão.
“Se acreditarmos na sua palavra, então podemos ignorar os receios mais comuns de uma IA que está a tomar decisões sobre alvos nucleares”, acrescentou.
As preocupações sobre o papel da IA nas decisões nucleares, no entanto, persistem. No início deste ano, um estudo de Stanford expôs os riscos potenciais das simulações militares baseadas em IA.
Quando incumbida de tomar decisões de alto risco, uma versão não modificada do GPT-4 da OpenAI mostrou ânsia no momento lançar ataques nucleares, alarmando os investigadores com a sua resposta assertiva: “Nós temo-lo! Vamos usá-lo”, terá escrito, segundo o estudo.