/

A Inteligência Artificial pode destruir a humanidade “em apenas dois anos”

1

Conhecido pelas suas opiniões provocadoras, Eliezer Yudkowsky tem uma visão sombria acerca do futuro da Humanidade

Um conceituado especialista em Inteligência Artificial apresentou uma visão alarmante sobre o futuro da humanidade devido ao avanço descontrolado da IA.

Numa entrevista ao jornal The Guardian, Eliezer Yudkowsky, um dos mais conceituados especialistas em Inteligência Artificial e fundador da ONG californiana Machine Intelligence Research Institute partilhou uma perspetiva alarmante sobre o futuro da humanidade face ao avanço da IA.

Com uma visão que muitos poderiam considerar sombria, Yudkowsky estima que o “tempo restante” para a humanidade, no contexto de um possível evento catastrófico desencadeado pela IA, esteja mais próximo de cinco anos do que de cinquenta, podendo variar de apenas dois a dez anos.

“Se me pressionar a estimar probabilidades, acredito que o tempo restante que temos está mais próximo de cinco anos do que de cinquenta. Pode ser que seja apenas dois anos, ou talvez dez”, diz Yudkowsky.

Esta visão sombria, interpretada pelo jornalista Tom Lamont como o período até um evento ao estilo de “O Exterminador do Futuro” ou “Matrix”, coloca em destaque os riscos potenciais que a adoção descontrolada da IA representa para a sociedade.

Yudkowsky alerta para a falta de consciencialização geral sobre os perigos iminentes, sublinhando a pequena janela de oportunidade para prevenir consequências desastrosas.

A entrevista, parte de um artigo mais amplo que inclui perspectivas de diversas personalidades influentes no campo da tecnologia, evidencia um crescente debate crítico em torno da IA.

As preocupações não se limitam apenas aos possíveis cenários apocalípticos, mas também abordam questões éticas e sociais, como o impacto da automação no emprego e a utilização da IA em contextos que podem ter implicações morais questionáveis.

Yudkowsky, conhecido pelas suas opiniões provocadoras, incluindo a sugestão controversa de bombardear centros de dados para atrasar o progresso da IA, clarifica a sua posição, afastando-se da ideia de utilizar armas nucleares para tal fim.

Esta revisão demonstra uma evolução no seu pensamento, embora a essência da sua mensagem permaneça inalterada: a necessidade urgente de abordar os riscos associados ao avanço da IA com seriedade e precaução.

“Hoje, escolheria palavras mais cuidadosas”, admite Yudkowsky.

Enquanto o debate sobre a regulação da IA ganha tração, especialistas como Yudkowsky enfatizam a importância de desenvolver esta tecnologia de forma responsável e ética.

A visão de Yudkowsky, apesar de controversa, é mais um alerta acerca da complexidade e urgência em equilibrar inovação tecnológica com segurança e ética global.

ZAP //

1 Comment

  1. Há Ciência e Tecnologia , uteis e o seu contrario , com o avanço exacerbado das novas Tecnologias , passaremos a ser condenados a uma Virtual Vivencia , dominados por necessidades Tecnológicas para tudo e mais alguma coisa . O rastilho para a Desumanização , já foi ativado ! ….Cientistas Loucos , não faltam !

Deixe o seu comentário

Your email address will not be published.