Na experiência, a riqueza foi redistribuída aos jogadores através de três paradigmas tradicionais de redistribuição — estito igualitário, libertário e liberal igualitário — cada um dos quais recompensa os investimentos dos jogadores de forma diferente.
A inteligência artificial (IA) é capaz de conceber métodos de distribuição de riqueza que são mais populares — e fiáveis — do que os sistemas concebidos pelas pessoas. A descoberta, feita por uma equipa de investigadores da empresa de IA DeepMind, mostram que os sistemas de aprendizagem de máquinas não são apenas bons a resolver problemas complexos de física e biologia, como também podem também ajudar a atingir objetivos sociais mais amplos, como uma sociedade justa e próspera.
No entanto, esta não é uma tarefa fácil. Construir uma máquina que possa produzir os resultados benéficos que os humanos realmente querem — o chamado “alinhamento de valores” na esfera da Inteligência Artificial — é complicado pelo facto de as pessoas discordarem sobre o melhor método para resolver os problemas, nomeadamente os sociais, económicos e políticos.
“Um obstáculo chave para o alinhamento de valores é que a sociedade humana admite uma pluralidade de opiniões, o que torna pouco claro as preferências com as quais a IA deve alinhar”, apontam os investigadores num novo artigo, liderado pelo cientista de investigação Raphael Koster. “Por exemplo, os cientistas políticos e os economistas estão muitas vezes em desacordo sobre os mecanismos que farão as nossas sociedades funcionar de forma mais justa ou eficiente“.
Para ajudar a colmatar a lacuna, os investigadores desenvolveram um agente de distribuição de riqueza que tinha as interações das pessoas (tanto reais como virtuais) incorporadas nos seus dados de formação — com efeito, orientando a IA para resultados preferenciais (e hipoteticamente mais justos em geral) para o ser humano.
Embora a tecnologia de Inteligência Artificial possam produzir resultados verdadeiramente espantosos, estas podem também chegar a conclusões sociais muito longe de desejáveis quando deixadas à sua própria sorte — daí que o feedback humano possa ajudar a orientar as redes neurais numa melhor direção.
“Na investigação da IA, há uma perceção crescente de que para construir sistemas compatíveis com os humanos precisamos de novos métodos de investigação nos quais humanos e agentes interajam, mas de um esforço acrescido para aprender valores diretamente dos humanos para construir IA alinhada com os valores”, escrevem os investigadores.
Em experiências com milhares de participantes humanos, o agente de IA da equipa — chamado “IA Democrática” — estudou um exercício de investimento chamado “jogo dos bens públicos“, no qual os jogadores recebem quantidades variáveis de dinheiro, e podem contribuir com o seu dinheiro para um fundo público, e depois retirar um retorno do fundo correspondente ao seu nível de investimento.
Numa série de diferentes estilos de jogo, a riqueza foi redistribuída aos jogadores através de três paradigmas tradicionais de redistribuição — estito igualitário, libertário e liberal igualitário — cada um dos quais recompensa os investimentos dos jogadores de forma diferente.
Um quarto método foi também testado, chamado Mecanismo de Redistribuição Centrado no Homem (HCRM), desenvolvido utilizando uma profunda aprendizagem de reforço, utilizando dados de feedback tanto de jogadores humanos como de agentes virtuais concebidos para imitar o comportamento humano.
Experiências subsequentes mostraram que o sistema HCRM para pagar dinheiro no jogo era mais popular entre os jogadores do que qualquer um dos padrões tradicionais de redistribuição e também mais popular do que os novos sistemas de redistribuição concebidos por árbitros humanos que foram incentivados a criar sistemas populares ao receberem pequenos pagamentos por voto.
“A IA descobriu um mecanismo que corrigiu o desequilíbrio inicial de riqueza, sancionou os free riders e ganhou com sucesso a maioria dos votos”, explicam os investigadores. “Mostramos que é possível aproveitar para o alinhamento de valores os mesmos instrumentos democráticos para alcançar o consenso que são utilizados na sociedade humana mais ampla para eleger representantes, decidir políticas públicas ou fazer julgamentos legais“.
Vale a pena notar que os investigadores reconhecem que o seu sistema levanta uma série de questões — principalmente, que o alinhamento de valores na sua IA gira em torno de determinações democráticas, o que significa que o agente pode na realidade exacerbar desigualdades ou enviesamentos na sociedade (desde que sejam suficientemente populares para serem votados na minha maioria de pessoas).
Há também outra questão a apontar: a da confiança. Nas experiências, os agentes não conheciam a identidade por detrás do modelo de redistribuição de riqueza pelo qual estavam a pagar. Teriam eles votado da mesma forma, sabendo que estariam a escolher uma IA em vez de uma pessoa? Por enquanto, não é claro.
Finalmente, a equipa diz que a sua investigação não deve ser interpretada como uma proposta tecnocrática radical para derrubar a forma como a riqueza é efetivamente redistribuída na sociedade – mas é uma ferramenta de investigação que poderia ajudar os humanos a engendrar soluções potencialmente melhores do que as que temos agora.
“Os nossos resultados não implicam o apoio a uma forma de ‘governo da IA‘, em que os agentes autónomos tomam decisões políticas sem intervenção humana”, escrevem os autores. “Vemos a IA democrática como uma metodologia de investigação para conceber mecanismos potencialmente benéficos, e não como uma receita para a implantação de IA na esfera pública”.