/

Chamaram-lhe “louco e alarmista”. Uma a uma, as suas previsões sobre a IA estão a concretizar-se

Wikimedia

Gary Marcus, professor emérito da Universidade de Nova Iorque, foi tido como um profeta da desgraça durante anos entre os especialistas na Inteligência Artificial. Agora, a realidade prova que tinha razão.

“Algo inacreditável está a acontecer na inteligência artificial neste momento — e não é inteiramente para o bem”, escreveu há seis meses Gary Marcus, professor emérito da Universidade de Nova Iorque (NYU), nos Estados Unidos, e uma das principais vozes no debate sobre a IA na atualidade.

Na sua visão, o lançamento do ChatGPT está a levar-nos ao “momento Jurassic Park” das máquinas: a possibilidade — como no filme de Steven Spielberg — de que a situação fuja do controle.

“Quando escrevi este artigo, acho que as pessoas pensaram que eu era louco ou alarmista”, afirma Marcus, em entrevista à BBC News Brasil.

Mas problemas sérios com este tipo de inteligência artificial começaram a proliferar em 2023: em março, na Bélgica, um homem que conversava frequentemente com o chatbot Eliza, da empresa Chai, cometeu suicídio.

A esposa sustenta que o contacto com o programa o levou a tirar a própria vida. Para o governo belga, o caso é “um precedente que deve ser levado a sério” e “o perigo do uso [de inteligência artificial] é uma realidade que precisa ser considerada”.

Foi um cenário possível descrito quatro meses antes por Marcus num artigo para a revista Wired: “Talvez um chatbot vá magoar alguém tão profundamente que a pessoa será levada a acabar com a sua vida? Em 2023, nós talvez vejamos a nossa primeira morte por um chatbot“.

“Acho que estes sistemas podem ser muito destrutivos. E parte do motivo do potencial de destruição é que eles não são confiáveis. Estes programas podem inventar algo e dizer que isso é um fato. E eles também podem ser usados por pessoas com essa finalidade”, diz.

“Os sistemas de inteligência artificial que temos agora não são bem controlados. Ainda não é uma situação terrível, mas as pessoas estão a dar-lhes mais e mais poderes. E não sabemos o que estes sistemas podem executar numa determinada situação.”

Sete previsões sombrias

Marcus compilou no ano passado “sete previsões sombrias” sobre sistemas como o ChatGPT, entre elas a de que a versão mais nova do programa seria como um “touro numa loja de porcelanas, imprudente e difícil de controlar. Fará um significativo número de erros estúpidos, de fazer abanar a cabeça, em maneiras difíceis de prever”.

No final de março, um caso bizarro chamou a atenção. Uma pessoa pediu ao ChatGPT para citar académicos envolvidos em episódios de assédio sexual.

A lista mencionava um professor norte-americano de Direito, Jonathan Turley. O programa disse que Turley fez comentários sexualmente sugestivos a uma aluna durante uma viagem ao Alasca e tentou tocá-la. A resposta citava como evidência uma reportagem de 2018 do jornal The Washington Post.

Mas nada disso jamais existiu: nem a viagem, nem a reportagem ou mesmo a acusação. É como se o robô tivesse inventado uma calúnia.

A OpenAI, empresa do ChatGPT, divulgou um comunicado dizendo que o programa “nem sempre gera respostas precisas”.

Para Marcus, “não temos nenhuma garantia formal de que esses programas vão trabalhar da forma correta, mesmo quando fazem cálculos matemáticos. Às vezes eles estão corretos, às vezes não. Falta de controlo e de confiabilidade são problemas que vejo”.

“A sua calculadora tradicional tem a garantia de uma resposta aritmética. Mas os grandes modelos de linguagem, não.”

Em causa está o sistema por trás do ChatGPT, os LLMs (sigla em inglês para large language models), que armazenam quantidades gigantescas de dados e geram, através de poderosos algoritmos, respostas por aproximação baseadas no que já foi dito antes por humanos.

Em resumo: um papagaio ultrassofisticado, mas que não faz ideia do que está a falar e às vezes “alucina” — um termo da IA que designa uma resposta fora do esperado, desalinhada da expectativa dos programadores.

“Os LLMs não são tão inteligentes assim, mas são perigosos”, diz Marcus, que também colocou o crescimento de momentos de alucinação dentro da sua lista de “previsões sombrias”.

Além dos geradores de texto, os programas que manipulam imagens também evoluem rapidamente.

Recentemente uma foto do papa Francisco feita com o programa Midjourney, deixou a internet confusa durante algumas horas: aquela imagem era real?

O episódio teve consequências inofensivas, mas foi uma amostra do potencial para inaugurar uma zona cinzenta permanente entre factos e falsificações. “A não ser que se tomem providências, estamos próximos de entrar num ambiente de pós-verdade“, afirma o professor da NYU.

“O que torna tudo muito difícil para a democracia. Precisamos de sanções para quem produz desinformação em massa, exigir marcas d’água para identificar de onde vem a informação e criar novas tecnologias para detetar inverdades. Assim como existe programa de antivírus, precisamos de software antidesinformação.”

Entendimento com o “padrinho da IA”

O posicionamento de cautela e desconfiança com o entusiasmo pela rápida evolução da IA nem sempre foi bem recebido.

O ceticismo de Marcus foi ironizado noutros anos pelos seus pares (principalmente em alfinetadas pelo Twitter), mas a maré mudou: diversas personalidades da área começaram a adotar um tom diferente.

Geoffrey Hinton, chamado de “padrinho da IA”, anunciou o seu afastamento do Google e afirmou logo na sequência que considera os problemas com inteligência artificial “talvez mais urgentes do que os das alterações climáticas“.

“Eu e Hinton temos visões diferentes sobre alguns aspetos da inteligência artificial. Eu falei com ele há pouco, expliquei a minha posição e ele concordou comigo, o que nem sempre acontece. Mas a questão principal em que concordamos é controlo”, afirma.

“Não necessariamente concordo que [IA] seja uma ameaça maior do que as alterações climáticas, mas é difícil saber. Há muitos dados estabelecidos para tentar estimar os riscos das mudanças climáticas. Mas com a inteligência artificial nós nem sabemos como calcular esses riscos.”

“Mas, para mim, a probabilidade de que estas ferramentas sejam usadas para abalar democracias é essencialmente de 100%. Agora, se há probabilidade de os robôs dominarem o planeta, não temos ideia. É razoável que algumas pessoas se dediquem a esse cenário. Estamos a construir ferramentas muito poderosas. Devemos considerar essas ameaças.”

ZAP // BBC

Deixe o seu comentário

Your email address will not be published.