Inteligência Artificial pode destruir a humanidade, sugere empresa da Google

2

Um novo estudo, de cientistas da Universidade de Oxford e da Google DeepMind, sugere que com a sua evolução, a Inteligência Artificial pode destruir a humanidade.

Na ficção, em alguns casos, os robôs tornam-se nossos amigos, noutros tornam-se o nosso pior inimigo. Se por um lado temos o amigável WALL-E da Disney, por outro temos o cenário retratado em Westworld. Nesta série, eventualmente os robôs submissos insurgem-se contra os humanos.

Mas será que um cenário semelhante a este pode um dia tornar-se uma realidade nas nossas vidas?

Um novo artigo científico da autoria de investigadores da Universidade de Oxford e da DeepMind, subsidiária de Inteligência Artificial (IA) da Google, argumenta que sim.

O estudo, recentemente publicado na revista AI Magazine, sugere que a Inteligência Artificial pode representar um risco existencial para a humanidade.

Tudo tem a ver com as Redes Adversárias Generativas (ou RAGs) usadas no desenvolvimento da IA. As RAGs são dois sistemas de IA que aprendem competindo entre si. São treinadas para criar conteúdo e realizar tarefas mais rapidamente do que um único sistema.

Esses sistemas funcionam dentro de dois critérios: uma parte tenta gerar uma imagem dos dados de entrada enquanto a outra parte classifica o seu desempenho, descreve a Interesting Engineering.

Os investigadores especulam no seu artigo que uma IA avançada poderia conceber uma estratégia de batota para obter a sua recompensa de forma mais eficiente, enquanto essencialmente prejudica a humanidade.

“Num mundo com recursos infinitos, eu ficaria extremamente incerto sobre o que aconteceria. Num mundo com recursos finitos, há uma competição inevitável por esses recursos”, disse o coautor Michael K. Cohen, da Universidade de Oxford, em entrevista ao Motherboard.

“E se estás numa competição com algo capaz de te superar a cada passo, então não deves esperar vencer. E a outra parte fundamental é que teria um apetite insaciável por mais energia para continuar a levar a probabilidade cada vez mais perto”.

Isso significa que, se uma IA estivesse encarregada, por exemplo, de cultivar a nossa comida, poderia querer encontrar uma maneira de evitar isso e receber uma recompensa.

Assim, Cohen argumenta que não deveríamos procurar criar uma IA tão avançada, a menos que tenhamos um meio garantido de a controlar.

“Em teoria, não faz sentido correr para isso. Qualquer corrida seria baseada num mal-entendido de que sabemos como controlá-la”, acrescentou Cohen. “Dado o nosso entendimento atual, isso não é uma coisa útil para desenvolver, a menos que façamos algum trabalho sério agora para descobrir como as controlaríamos”.

Daniel Costa, ZAP //

Siga o ZAP no Whatsapp

2 Comments

  1. Se os seus criadores só pensam em guerras e prejudicar terceiros, é natural, a sua evolução ser sustentada e centrada em “egoismo” e destruição de tudo que seja contra o seu “raciocínio”

Deixe o seu comentário

Your email address will not be published.