Segundo James Cameron, o mundo que profetizou em 1984 em “Terminator” pode estar mais próximo do que parece. Não será por falta de aviso: há mais de 35 anos que cientistas e académicos advertem sobre o perigo dos “robôs assassinos”.
Com 70 anos, 45 de carreira, três Óscares e inúmeros prémios conquistados, o realizador canadiano James Cameron é um dos cineastas mais famosos do mundo.
Apesar de, ao longo da sua carreira, ter filmado algumas obras não relacionadas com a ficção científica, como Titanic ou True Lies, a verdade é que foi com este género que se notabilizou ao longo da carreira.
Isso é evidente em filmes como Aliens, Avatar, The Abyss, e a saga The Terminator, o icónico Exterminador Implacável protagonizado por Arnold Schwarzenegger.
A saga Terminator descreve um mundo pós-apocalítico em que as máquinas atingiram a singularidade tecnológica, conseguiram devastar a Terra e escravizar a humanidade — graças ao poder da Skynet, uma inteligência artificial militar.
No enredo do primeiro filme, em 2029 (parecia distante, mas é já daqui a 5 anos), quando a resistência liderada por John Connor está prestes a ganhar a guerra, a Skynet decide enviar um robô humanoide para o passado para acabar com a vida da sua mãe, para evitar que nascesse.
O cineasta canadiano abordou numa entrevista à CTV News os riscos associados ao desenvolvimento descontrolado da inteligência artificial, na qual dá ênfase à necessidade de criar regulamentos internacionais para evitar um cenário semelhante ao que descreveu nos seus filmes.
Cameron adverte que a militarização da IA é um dos maiores perigos que a humanidade enfrenta — opinião que partilha com o fundador da Tesla e SpaceX, Elon Musk, que considera que a IA é bem mais perigosa do que ogivas nucleares.
Na sua opinião, a utilização da IA para fins destrutivos pode desencadear uma nova corrida ao armamento, comparável à corrida ao armamento nuclear do século XX. “Se não a desenvolvermos, outros o farão“, afirma o diretor. Talvez por isso, pouco depois de manifestar as suas preocupações com os perigos da IA, Musk tenha decidido lançar a sua própria startup, xAI.
“Podemos imaginar uma IA num teatro de combate, tudo a ser combatido por computadores a uma velocidade em que os humanos já não podem intervir, e não teremos capacidade de a parar”, adverte Cameron.
Para o realizador, é importante avaliar quem é que está a desenvolver este tipo de tecnologia e com que objetivo: com fins lucrativos ou para defesa. Mas na prática, considera Cameron, esta é uma escolha entre a ganância e a paranoia.
Profecia com 30 anos
O futuro imaginado por James Cameron em 1984 está ainda, para já, no campo da ficção científica.
Mas, há mais de 35 anos, antes de Cameron e muito antes dos mais recentes desenvolvimentos no campo da Inteligência Artificial, a criação de regras para o controle de armas robóticas autónomas era já tema de preocupação para cientistas, académicos e ativistas de todo o mundo.
Entre estes, encontra-se Mark Gubrud, cientista do Programa sobre Ciência e Segurança Global da Universidade de Princeton, nos Estados Unidos, que há décadas faz campanha contra o uso de armamento autónomo e que se opõe à produção do que chama de “robôs assassinos”.
Também Gubrud considera que não estamos muito distantes de um cenário em que um robô, como o da série de filmes Exterminador Implacável, é acionado para realizar missões específicas em situações de conflito.
“O ‘Exterminador’ era um robô assassino. E vemos o que está a acontecer hoje em dia: uma das mais importantes missões das aeronaves controladas de forma remota é matar”, dizia Gubrud há pouco mais de 10 anos.
O cientista acredita que quanto maior for a automatização, maior será o risco de perda de controle. “Se pensarmos num sistema de confronto automático, no qual exércitos de robôs se enfrentam, conseguimos imaginar como seria difícil para uma equipa de engenheiros desenvolver a tecnologia necessária e conseguir garantir sua estabilidade a longo prazo?”, interrogava-se.
Gubrud afirmava que é preciso deter o desenvolvimento destes robôs autónomos o mais rapidamente possível – antes que o desenvolvimento deste tipo de armamento avance.
O primeiro passo neste sentido seria divulgar a sua existência. O seguinte, seria lutar pela criação de regras e protocolos que regulamentem o desenvolvimento da tecnologia.
“É um direito humano não ser morto por uma decisão de uma máquina. Este é um princípio moral muito forte, com uma atração universal. E esta deve ser a base para proibir as armas autónomas”, afirmava Gubrud.
Em maio, a União Europeia deu a luz verde final à Lei da Inteligência Artificial, a primeira legislação a nível mundial para regulamentar este tipo de tecnologia, que estabelece várias regras para classificação dos sistemas de IA como de alto risco, e determina a proibição de certas práticas.
Naturalmente, estas regulamentações e limitações irão vincular apenas as nações e entidades que a elas decidam submeter-se, entregando a futura liderança do desenvolvimento da IA precisamente às que provavelmente preferiríamos que não o pudessem fazer.
Como salienta Cameron, “se não a desenvolvermos, outros o farão”, colocando-nos perante um dilema difícil de resolver: a Humanidade vai ser destruída pela nossa IA, ou pela IA dos outros?
Entretanto, assistimos recentemente à primeira batalha militar de robôs da história da Humanidade; a NATO está a criar um exército de robôs autónomos para a guerra do futuro; e a China criou o primeiro comandante militar IA — que mantém para já enjaulado num laboratório.
As peças parecem estar quase todas alinhadas no tabuleiro — prontas a sair do campo da ficção científica.