Um novo estudo, de cientistas da Universidade de Oxford e da Google DeepMind, sugere que com a sua evolução, a Inteligência Artificial pode destruir a humanidade.
Na ficção, em alguns casos, os robôs tornam-se nossos amigos, noutros tornam-se o nosso pior inimigo. Se por um lado temos o amigável WALL-E da Disney, por outro temos o cenário retratado em Westworld. Nesta série, eventualmente os robôs submissos insurgem-se contra os humanos.
Mas será que um cenário semelhante a este pode um dia tornar-se uma realidade nas nossas vidas?
Um novo artigo científico da autoria de investigadores da Universidade de Oxford e da DeepMind, subsidiária de Inteligência Artificial (IA) da Google, argumenta que sim.
O estudo, recentemente publicado na revista AI Magazine, sugere que a Inteligência Artificial pode representar um risco existencial para a humanidade.
Tudo tem a ver com as Redes Adversárias Generativas (ou RAGs) usadas no desenvolvimento da IA. As RAGs são dois sistemas de IA que aprendem competindo entre si. São treinadas para criar conteúdo e realizar tarefas mais rapidamente do que um único sistema.
Esses sistemas funcionam dentro de dois critérios: uma parte tenta gerar uma imagem dos dados de entrada enquanto a outra parte classifica o seu desempenho, descreve a Interesting Engineering.
Os investigadores especulam no seu artigo que uma IA avançada poderia conceber uma estratégia de batota para obter a sua recompensa de forma mais eficiente, enquanto essencialmente prejudica a humanidade.
“Num mundo com recursos infinitos, eu ficaria extremamente incerto sobre o que aconteceria. Num mundo com recursos finitos, há uma competição inevitável por esses recursos”, disse o coautor Michael K. Cohen, da Universidade de Oxford, em entrevista ao Motherboard.
“E se estás numa competição com algo capaz de te superar a cada passo, então não deves esperar vencer. E a outra parte fundamental é que teria um apetite insaciável por mais energia para continuar a levar a probabilidade cada vez mais perto”.
Isso significa que, se uma IA estivesse encarregada, por exemplo, de cultivar a nossa comida, poderia querer encontrar uma maneira de evitar isso e receber uma recompensa.
Assim, Cohen argumenta que não deveríamos procurar criar uma IA tão avançada, a menos que tenhamos um meio garantido de a controlar.
“Em teoria, não faz sentido correr para isso. Qualquer corrida seria baseada num mal-entendido de que sabemos como controlá-la”, acrescentou Cohen. “Dado o nosso entendimento atual, isso não é uma coisa útil para desenvolver, a menos que façamos algum trabalho sério agora para descobrir como as controlaríamos”.
Mas muita gente está tresloucadamente curiosa para ver se isso acontece mesmo!
Se os seus criadores só pensam em guerras e prejudicar terceiros, é natural, a sua evolução ser sustentada e centrada em “egoismo” e destruição de tudo que seja contra o seu “raciocínio”