O desenvolvimento da inteligência artificial depende da aprendizagem das máquinas. De certa forma, as máquinas precisam de aprender a aprender. E se a melhor forma de aprender é através dos nossos erros, estão no caminho certo.
Um novo algoritmo permite que a Inteligência Artificial (IA) aprenda com os seus próprios erros, quase como os seres humanos fazem.
Este avanço acontece graças a um novo algoritmo de código aberto chamado Hindsight Experience Replay (HER), desenvolvido por investigadores da empresa OpenAI, com sede nos EUA. Nos últimos meses, investigadores da OpenAI têm se concentrado no desenvolvimento do processo de aprendizagem da inteligência artificial.
O algoritmo ajuda um agente de IA a “olhar para trás” em retrospetiva, por assim dizer, à medida que completa uma tarefa. De acordo com a OpenAI, a máquina passa a interpretar as falhas como sucessos, para chegar ao resultado pretendido no início da tarefa.
“O ponto chave da HER é algo o que os humanos fazem intuitivamente: mesmo que não tenhamos sucesso num objetivo específico, pelo menos conseguimos um objetivo diferente. Então, por que não apenas fingir que queríamos atingir esse objetivo para começar, em vez do que pretendemos alcançar originalmente?”, explicam os investigadores.
“Ao fazer a substituição, o algoritmo de aprendizagem de reforço pode obter um sinal de aprendizagem, uma vez que alcançou um objetivo, esmo que não fosse esse o que pretendia originalmente. Se repetirmos esse processo, eventualmente aprenderemos a alcançar objetivos arbitrários, incluindo os objetivos que realmente queríamos alcançar”, assinalam.
Isso significa que todas as tentativas falhadas da inteligência artificial funcionam como outro objetivo “virtual” não planeado.
Acontece algo parecido connosco quando estamos a aprender. Quando tentamos andar de bicicleta pela primeira vez, não nos conseguimos equilibrar corretamente. Mesmo assim, essas tentativas ensinam-nos o que não fazer e o que evitar. Cada fracasso aproxima-nos do objetivo. É assim que os seres humanos aprendem – e agora as máquinas também.
Com a HER, o OpenAI quer que as suas inteligências artificiais aprendam da mesma forma. Ao mesmo tempo, o método tornar-se-á uma alternativa ao sistema de recompensas usual envolvido em modelos de reforço de aprendizagem.
Para ensinar a IA a aprender por conta própria, ela tem que trabalhar com um sistema de recompensas. Os sistemas usados hoje ou dão cookies para a inteligência artificial quando esta alcança o objetivo – e não quando não alcança, ou dão cookies dependendo de quão perto a IA está de atingir o seu objetivo.
Nenhum dos métodos é perfeito. O primeiro não dá espaço para a aprendizagem, enquanto o segundo pode ser bastante complicado de implementar.
Ao tratar cada tentativa como um objetivo em retrospetiva, HER dá a um agente de IA uma recompensa mesmo quando na verdade ele não conseguiu realizar a tarefa especificada. Isso ajuda a inteligência artificial a aprender mais rápido e com maior qualidade.
No vídeo abaixo, é possível ver como isso funciona na prática. São mostradas diversas tarefas feitas pela HER e por outra inteligência artificial. A aprendizagem do novo sistema tem resultados muito melhores.
Este método não significa que o HER facilita completamente a aprendizagem. “Aprender com HER em robôs reais ainda é difícil, pois ainda requer uma quantidade significativa de amostra”, aponta Matthias Plappert, da OpenAI.
Em qualquer caso, como as simulações da OpenAI demonstraram, esta pode ser bastante útil para “encorajar” os agentes de IA para aprender com os seus erros.
ZAP // HypeScience / Science Alert
Que bom. Ansioso por a inteligencia artificial tomar conta das armas nucleares.