Uma nova pesquisa comparou as respostas de vários modelos do ChatGPT com inquéritos feitos a humanos e os resultados indicam que o sistema de inteligência artificial tende a ser mais generoso e justo do que as pessoas.
Um estudo recente publicado na revista Proceedings of the National Academy of Sciences (PNAS) concluiu que as respostas comportamentais e de personalidade do ChatGPT são notavelmente semelhantes às dos seres humanos, apresentando níveis particularmente elevados de altruísmo e cooperatividade.
A equipa investigou o comportamento do ChatGPT em vários jogos comportamentais tradicionalmente utilizados para avaliar características humanas como a confiança, a justiça e a cooperação. O estudo incluiu as últimas iterações da IA, GPT 3.5-Turbo e GPT-4, juntamente com versões anteriores da Web, comparando as suas respostas com as de quase 110 000 participantes humanos compilados a partir de bases de dados públicas.
Os modelos de IA foram testados utilizando o questionário OCEAN Big Five, que mede a personalidade em cinco grandes dimensões, e uma série de jogos económicos que avaliam comportamentos sociais e económicos como o altruísmo e o raciocínio estratégico.
De forma notável, os comportamentos das diferentes versões do ChatGPT revelaram-se estatisticamente indistinguíveis dos dos participantes humanos, com todas as versões a revelarem menor neuroticismo e maior conscienciosidade, particularmente no GPT-4.
Em termos de jogos comportamentais, o ChatGPT demonstrou uma tendência para agir de forma mais generosa e justa do que o ser humano médio, e exibiu níveis mais elevados de cooperação e confiança.
Isto foi particularmente notável no jogo Dilema dos Prisioneiros, onde a IA adoptou frequentemente uma posição cooperativa inicialmente ou mudou para uma à medida que o jogo avançava. Em situações em que a contraparte começava com uma deserção, o ChatGPT retribuía com um comportamento semelhante, demonstrando uma estratégia de “olho por olho”.
Os resultados também destacaram a natureza avessa ao risco da IA, com o ChatGPT a escolher frequentemente estratégias que maximizavam os ganhos. Esta descoberta é consistente com pesquisas anteriores que sugerem que as IAs tendem a otimizar os resultados esperados.
Os autores do estudo sugerem que o comportamento semelhante ao humano e muitas vezes mais positivo da IA pode tornar o ChatGPT adequado para funções que exijam negociação, resolução de litígios ou prestação de cuidados, refere o Psy Post.
Embora as descobertas iluminem o potencial da IA para imitar e até melhorar o comportamento humano, os investigadores advertem que as IA são construções artificiais com comportamentos moldados pela sua programação e pelos objetivos definidos pelos seus criadores.
Como tal, diferentes modelos de IA ou versões do ChatGPT podem apresentar características variadas se forem concebidos com outros objetivos em mente — e há até quem já ache que a IA pode mesmo ser o catalisador do fim da Humanidade.