/

AI Doomerism: como evitar o fim do mundo às mãos do monstro que criámos para o causar

1

ZAP // Dall-E-2

Um pouco por todo o planeta, os arquitetos da Inteligência Artificial estão preocupados com o Apocalipse. Mas continuam a criar o monstro que acham que o vai causar.

Quando em novembro de 2022 a OpenAI, mãe do ChatGPT, decidiu oferecer ao mundo a sua criatura, deixou assombrados todos aquele que dedicaram uns minutos a conversar com o revolucionário programa de inteligência artificial generativa.

Mas a então organização sem fins lucrativos gerou também imediatamente grande apreensão em Silicon Valley — não apenas porque o bot era muito, muito bom, mas porque Sam Altman, o CEO da OpenAI, parecia decidido a dar um salto para o abismo – e levar consigo toda a humanidade.

Os modelos de inteligência artificial que emulam a linguagem humana já existiam há algum tempo, mas até ao lançamento do ChatGPT as gigantes tecnológicas mantinham grande prudência quanto à altura de dar o passo que faltava. A quantidade de erros e os potenciais riscos pareciam ser demasiado grandes.

Sam Altman, no entanto, preferiu usar a estratégia que tinha ajudado essas mesmas tecnológicas a dominar a internet: lançou um produto inacabado e fez de todos os utilizadores cobaias voluntárias desse produto, numa massiva experiência tecnológica e social para aprimorar o seu Frankenstein.

Para a maioria das pessoas, é difícil entender como podemos estar a brincar com o fogo, largando a IA à solta na sociedade, sem qualquer tipo de regulamentação, diz a jornalista Natália Viana num artigo de opinião na Pública.

Mas as empresas envolvidas na criação dos modelos de Inteligência Artificial que se seguiram ao ChatGPT, nas mais variadas áreas, são as primeiras a saber dos potenciais problemas e dos riscos que os seus modelos representam.

A própria OpenAI está claramente consciente de que criou um monstro, ao ponto de ter recentemente aberto bolsas de investigação, com um fundo de 10 milhões de dólares, para o controlar — enquanto o desenvolve.

O texto de apresentação do fundo, Superalignment Fast Grants — uma parceria da OpenAI com o ex-CEO do Google, Eric Shmidt — é bastante direto:

Estamos a abrir bolsas com um fundo de $10M para apoiar investigação técnica em alinhamento e segurança de sistemas sobrehumanos de IA, incluindo generalização fraco-a-forte, interpretabilidade, supervisão de escalabilidade, e mais”.

Se a introdução é críptica, o resto do texto clarifica o tamanho do abismo em que nos estamos a meter: “Acreditamos que a superinteligência pode surgir nos próximos 10 anos. Estes sistemas de IA, com vastas capacidades, podem ser extremamente benéficos, mas potencialmente apresentar grandes riscos”.

O texto detalha e exemplifica os contornos do pequeno problema:

Os sistemas de IA sobrehumanos serão capazes de comportamentos complexos e criativos que os humanos não conseguem compreender totalmente. Por exemplo, se um modelo sobrehumano gerar um milhão de linhas de código extremamente complicadas, os humanos não serão capazes de avaliar de forma confiável se o código é seguro ou perigoso“.

As técnicas de alinhamento existentes, que dependem de supervisão humana, podem já não ser suficientes. Este é um dos problemas técnicos não resolvidos mais importantes do mundo“, acrescenta o texto da OpenAI.

E para concluir, um aviso sinistro: “muitas histórias de falhas de alinhamento consistem em modelos que tentam minar as tentativas humanas de os supervisionar”.

Parece o enredo batido de um filme de ficção científica. Está a acontecer. E os gigantes de Silicon Valley sabem que está a acontecer.

Além do envolvimento no programa Superalignment Fast Grants, a Google está também a apoiar a Anthropic, startup criada por um grupo de antigos engenheiros da OpenAI que querem evitar o apocalipse da Inteligência Artificial — criando Inteligência Artificial baseada em princípios de segurança.

Numa das suas experiências, a Anthropic obteve resultados espetaculares: treinou uma IA para ser malvada, e não conseguiu reverter o processo. Mais do que isso, a IA aprendeu a esconder melhor as suas ações maliciosas, tornando-se ainda mais perigosa.

Uma expressão amplamente usada na comunidade tecnológica, “AI Doomerism”, resume o estado de espírito de muitos engenheiros que trabalham com Inteligência Artificial: uma visão apocalíptica da IA, de quem trabalha com ela e sabe que os seus bots imprevisíveis podem levar à extinção da humanidade.

“O nosso objetivo na Anthropic é competir com o ChatGPT enquanto tentamos evitar um Apocalipse IA”, explica Dario Amodei, CEO e um dos fundadores da startup, numa entrevista ao The New York Times. “É um pouco stressante“, confessa, numa cândida encarnação do mais puro AI Doomerism.

A maior parte dos engenheiros da Anthropic acredita que a Inteligência Artificial Geral, o ponto de singularidade em que a IA ganha consciência, vai mesmo acontecer. E estão mais do que stressados com isso, diz o NYT. “Sentimo-nos um pouco como os Oppenheimers do nosso tempo“.

Durante a II Guerra Mundial, o grupo de físicos liderado por Robert Oppenheimer criou a bomba atómica que, poucos anos mais tarde, viria a devastar Hiroshima e Nagasaki — e que nunca mais na história da Humanidade, felizmente e até agora, voltou a ser usada contra humanos.

Durante as últimas décadas, a humanidade receou que um dia alguém se lembrasse de lançar umas quantas bombas atómicas, recebendo outras tantas em resposta e desencadeando o Apocalipse Nuclear.

Não aconteceu. Até agora, os humanos tiveram o bom senso de não carregar nos seus botões vermelhos, e as bombas não têm vontade própria, ao contrário da IA — que, apostam os AI Doomeristas, um dia destes a terá.

Armando Batista, ZAP //

Siga o ZAP no Whatsapp

1 Comment

  1. De nada vale falarem sobre AI ! Ninguém vai conseguir parar esta loucura ! Os criadores deviam saber que não ficarão vivos com uma IA à solta !
    Parece que ninguém mesmo a começar pelos investigadores e cientistas a acabar nos milionários e sedentos de poder que ainda não aperceberam que tudo o que façam não levam nada para o outro lado com eles depois de mortos e aparenta mesmo que não tenham consciência que um dia destes nem planeta tem para viver. Só existe mesmo uma solução que é a erradicação da raça bumana de vez.
    O ser humano é ó único ser vivo na natureza que destroi tudo o que cria.

Deixe o seu comentário

Your email address will not be published.