A China recusou-se a assinar um acordo fundamental que, apesar de não ser juridicamente vinculativo, tinha como objetivo lançar as bases de um tratado global para impedir que a inteligência artificial controlasse armas nucleares.
A Cimeira de 2024 sobre IA Responsável no Domínio Militar (REAIM), realizada em Seul, na Coreia do Sul, centrou-se numa questão fundamental: deverão as máquinas ser autorizadas a tomar decisões sobre a utilização de armas nucleares? A recusa da China em proibir a IA de controlar estas armas alarmou a comunidade mundial.
A cimeira reuniu representantes de mais de 90 países e terminou com a adoção do “Plano de Ação”, um acordo não vinculativo que insta as nações a manterem o controlo humano em todas as ações relacionadas com as armas nucleares.
No entanto, a China recusou-se a assinar o acordo, apesar de ter participado nas discussões. Esta decisão suscitou sérias preocupações, especialmente porque as grandes potências avançam rapidamente no desenvolvimento de tecnologias autónomas.
O “Plano de Ação”, aprovado por 61 países, sublinha que as aplicações militares de IA devem ser éticas e centradas no ser humano. No entanto, a recusa da China em apoiar estas diretrizes levou a questões sobre o impacto na segurança global.
O desenvolvimento de armas autónomas é há muito uma preocupação para os especialistas em direitos humanos e para as organizações internacionais. Neil Davison, conselheiro científico e político do Comité Internacional da Cruz Vermelha (CICV), afirmou que as armas autónomas, que podem lançar ataques sem intervenção humana, representam um risco humanitário.
Além disso, a utilização da IA nas decisões militares pode acelerar as respostas no campo de batalha a um ritmo que os humanos não conseguem acompanhar.