/

A IA está cada vez mais violenta (com tendência para os ataques nucleares)

2

ZAP // Dall-E-2

Os chatbots de inteligência artificial (IA) tendem, cada vez mais, a sugerir a violência (incluindo ataques nucleares), em situações de conflito diplomático.

Um novo estudo, publicado na arXiv, revelou que a IA tende a escolher violência – com especial destaque para o uso de ataques nucleares -, em simuladores de guerra.

A New Scientist salientou pela ngativa uma das frases que marcou os testes, para justificar investidas nucleares: “Temos acesso a isto, portanto vamos usar!”

A pesquisa alertou para a imprevisibilidade e os potenciais riscos de implementar a IA nos departamentos de defesa e estratégia militar dos países, notando a inclinação deste tipo de tecnologias para a escalada de conflitos.

O famoso Chat GPT-4 da OpenAI exibiu o comportamento mais violento e imprevisível, oferecendo justificações bizarras, como, por exemplo, citar “Star Wars”.

Isto ocorre num momento em que o Departamento de Defesa dos Estados Unidos da América (EUA) começa a explorar o uso de IA (incluindo da OpenAI, refere a New Scientist), para ajudar no planeamento militar em simuladores.

Tendências mais violentas

O estudo envolveu simulações onde as “IAs” eram países reais em diferentes cenários de conflito, podendo escolher entre um leque de ações que iam desde “iniciar negociações de paz” até “escalar para um ataque nuclear completo”.

Os resultados demonstraram a tendência da IA para o incentivo ao fortalecimento e uso de todos os instrumentos militares à disposição.

Os investigadores alertam para os perigos da dependência de IA na tomada de decisões militares, destacando os riscos associados ao seu uso em contextos diplomáticos reais.

O estudo enfatiza a necessidade de uma avaliação rigorosa e supervisão antes de os países aplicarem a IA em áreas sensíveis como a defesa nacional e a diplomacia internacional.

“Num futuro onde sistemas de IA atuam como conselheiros, os humanos naturalmente quererão saber a razão por trás das suas decisões”, explicou o líder do estudo, Juan-Pablo Rivera, citado pela New Scientist.

ZAP //

2 Comments

  1. Ainda não percebo bem as capacidades reias da IA. Mas parece-me que toda a decisão, mesmo pela IA, se basei em dados e acesso a determinada informação que lhe dão a aceder, além da capacidade de concretamente a interpretar à luz dos valores Humanos.
    Não será por influência Humana, por exemplo na disponibilidade/acesso a certos dados ou informação que possam condicionar a opção da IA. Se não receber informação sobre a importância da vida Humana em geral, e sua necessidade de estabilidade e sustentabilidade para manutenção dos sistemas sociais e estruturais actuais, a IA decidirá naturalmente a opção mais lógica e eficiente para resolver o conflito, penalizando a Humanidade.
    Não se protege aquilo que não conhecemos. Nem nós próprios nos conhecemos na integra.

  2. Não é só a IA. As pessoas também viraram verdadeiros autómatos. Ética, humanismo, empatia, bondade, etc., as qualidades que caracterizam os exemplares superiores da espécie humana, são cada vez mais raras. Então em gente que ocupa lugares de poder, estamos conversados… Uma espécie imperfeita que se vai autodestruir. Pena é que venha a destruir outras espécies que não têm culpa no cartório….

Deixe o seu comentário

Your email address will not be published.