O ChatGPT é mais altruísta e cooperativo do que um humano médio

ZAP // Dall-E-2

Uma nova pesquisa comparou as respostas de vários modelos do ChatGPT com inquéritos feitos a humanos e os resultados indicam que o sistema de inteligência artificial tende a ser mais generoso e justo do que as pessoas.

Um estudo recente publicado na revista Proceedings of the National Academy of Sciences (PNAS) concluiu que as respostas comportamentais e de personalidade do ChatGPT são notavelmente semelhantes às dos seres humanos, apresentando níveis particularmente elevados de altruísmo e cooperatividade.

A equipa investigou o comportamento do ChatGPT em vários jogos comportamentais tradicionalmente utilizados para avaliar características humanas como a confiança, a justiça e a cooperação. O estudo incluiu as últimas iterações da IA, GPT 3.5-Turbo e GPT-4, juntamente com versões anteriores da Web, comparando as suas respostas com as de quase 110 000 participantes humanos compilados a partir de bases de dados públicas.

Os modelos de IA foram testados utilizando o questionário OCEAN Big Five, que mede a personalidade em cinco grandes dimensões, e uma série de jogos económicos que avaliam comportamentos sociais e económicos como o altruísmo e o raciocínio estratégico.

De forma notável, os comportamentos das diferentes versões do ChatGPT revelaram-se estatisticamente indistinguíveis dos dos participantes humanos, com todas as versões a revelarem menor neuroticismo e maior conscienciosidade, particularmente no GPT-4.

Em termos de jogos comportamentais, o ChatGPT demonstrou uma tendência para agir de forma mais generosa e justa do que o ser humano médio, e exibiu níveis mais elevados de cooperação e confiança.

Isto foi particularmente notável no jogo Dilema dos Prisioneiros, onde a IA adoptou frequentemente uma posição cooperativa inicialmente ou mudou para uma à medida que o jogo avançava. Em situações em que a contraparte começava com uma deserção, o ChatGPT retribuía com um comportamento semelhante, demonstrando uma estratégia de “olho por olho”.

Os resultados também destacaram a natureza avessa ao risco da IA, com o ChatGPT a escolher frequentemente estratégias que maximizavam os ganhos. Esta descoberta é consistente com pesquisas anteriores que sugerem que as IAs tendem a otimizar os resultados esperados.

Os autores do estudo sugerem que o comportamento semelhante ao humano e muitas vezes mais positivo da IA pode tornar o ChatGPT adequado para funções que exijam negociação, resolução de litígios ou prestação de cuidados, refere o Psy Post.

Embora as descobertas iluminem o potencial da IA para imitar e até melhorar o comportamento humano, os investigadores advertem que as IA são construções artificiais com comportamentos moldados pela sua programação e pelos objetivos definidos pelos seus criadores.

Como tal, diferentes modelos de IA ou versões do ChatGPT podem apresentar características variadas se forem concebidos com outros objetivos em mente — e há até quem já ache que a IA pode mesmo ser o catalisador do fim da Humanidade.

ZAP //

Deixe o seu comentário

Your email address will not be published.