/

A IA “vai infiltrar-se em tudo” — e vai assumir controlo das armas nucleares

Um grupo de vencedores do Prémio Nobel reuniu-se no fim do mês passado para discutir a Inteligência Artificial e o fim do mundo. Parece o início do enredo de um mau filme de ficção científica, mas infelizmente não é o caso.

O julgamento humano continua a ser fundamental no momento em que se decide o lançamento de armas nucleares.

Mas, segundo um grupo de cientistas e peritos em energia nuclear, que recentemente se reuniram para refletir sobre o impacto da IA nos processos humanos de tomada de decisão, é uma questão de quando, e não se, a Inteligência Artificial vai acabar por conseguir acesso aos códigos nucleares.

“É como a eletricidade”, diz Bob Latiff, major-general reformado da Força Aérea dos EUA e membro do Conselho de Ciência e Segurança do Bulletin of the Atomic Scientists, à Wired. “Vai infiltrar-se em tudo.”

No ano passado, o general da Força Aérea Anthony Cotton, responsável pelo arsenal norte-americano de mísseis nucleares, gabou-se numa conferência sobre Defesa que o Pentágono está a apostar tudo na IA, argumentando que vai “melhorar as nossas capacidades de tomada de decisão.”

O general não chegou ao ponto de afirmar que deveríamos deixar que a IA assumisse controlo total do armamento nuclear. “Nunca devemos permitir que a inteligência artificial tome essas decisões por nós”, disse na altura.

Uma das personalidades públicas que mais preocupação tem manifestado com a ascensão da IA é James Cameron. No ano passado, por exemplo, o realizador britânico previu a “chegada do Exterminador“.

Numa entrevista recente à Rolling Stone, Cameron voltou a alertar que o uso da inteligência artificial numa corrida armamentista global poderá levar ao tipo de distopia que profetizou desde 1984 na sua saga “Terminator”.

Segundo Cameron, os humanos enfrentam três ameaças existenciais: a da super-inteligência, a das armas nucleares e a da crise climática.

“Penso que ainda existe o perigo de um apocalipse ao estilo Terminator, onde se junta a IA com sistemas de armamento, mesmo ao nível de sistemas de armas nucleares, defesa nuclear, contra-ataque, tudo isso”, disse Cameron.

“O teatro de operações é tão rápido, as janelas de decisão são tão velozes, seria preciso uma super-inteligência para conseguir processá-lo, — mas talvez sejamos inteligentes e mantenhamos um humano no circuito”, afirmou o realizador.

“Mas os humanos são falíveis, e houve muitos erros cometidos que nos puseram mesmo à beira de incidentes internacionais que poderiam ter levado à guerra nuclear. Por isso não sei”, acrescenta Cameron.

“O clima e a degradação geral do mundo natural, as armas nucleares, a super-inteligência… estão todas de certa forma a manifestar-se e a atingir o pico ao mesmo tempo. Talvez a super-inteligência seja a resposta“.

Talvez.

ZAP //

Deixe o seu comentário

Your email address will not be published.