Michael Garrett, especialista em radioastronomia da Universidade de Manchester, tem uma nova teoria sobre a razão pela qual não encontrámos até agora vida inteligente no Universo — o chamado Paradoxo de Fermi.
Se o Universo é infinito (ou coisa parecida) e há um número infinito (ou coisa parecida) de potenciais civilizações extraterrestres, em diferentes estados de evolução, por que é que até agora nenhuma delas chegou até nós?
E por que nem sequer as conseguimos detetar, ao longe, com os nossos telescópios mais avançados?
Michael Garrett, especialista em radioastronomia da Universidade de Manchester, tem uma nova teoria para explicar o chamado Paradoxo de Fermi, postulado em 1950, por Enrico Fermi.
O perito, citado pelo Popular Mechanics, sugere que a Inteligência Artificial (IA) pode ser o “Grande Filtro” que impede as civilizações de chegarem até nós – destruindo-as antes de que consigam escapar do seu planeta natal.
A teoriua de Garrett, recentemente publicada na Acta Astronautica, analisa a forma como o desenvolvimento da IA pode levar ao fim das civilizações, incluindo a nossa.
Garrett explica que, embora atualmente a IA não seja tão inteligente como os humanos, está a melhorar rapidamente.
Preocupa-o o facto de que, quando construirmos uma IA capaz de pensar como os humanos, mas que processe a informação muito mais rapidamente, poderemos estar em apuros. Garrett pensa que, se não controlarmos corretamente a IA, esta poderá destruir-nos dentro de 100 a 200 anos após a sua criação.
O estudo salienta que, embora estejamos todos entusiasmados com a possibilidade de viver em Marte ou na Lua, ainda não descobrimos como lidar com grandes desafios como a radiação cósmica.
Entretanto, a tecnologia de IA está a avançar rapidamente porque tem muito investimento. Isto pode levar a que a IA se torne muito poderosa antes de estarmos preparados para lidar com ela em segurança.
Garrett utiliza a Equação de Drake, que é uma forma de adivinhar quantas civilizações extraterrestres poderão existir, para sustentar a sua teoria. O especialista sugere que talvez outras civilizações já tenham passado por esta fase e não tenham sobrevivido, o que pode explicar o facto de não termos tido notícias delas.
A sua mensagem principal é que temos de ter muito cuidado com o desenvolvimento da IA. Neste momento, os países e as empresas estão a correr para criar melhor IA sem regras ou controlos de segurança suficientes. Isto pode ser perigoso não só para um país, mas para todos.
Mais um maluco!