A Microsoft lançou ontem um chat bot chamado Tay, recorrendo a inteligência artificial para ir aprendendo com a interacção com as pessoas. Infelizmente, parece não lhe ter dado a inteligência para distinguir entres as boas e más companhias.
A ideia da Tay Tweets era bastante interessante: disponibilizar um chat bot com uma postura mais jovial, tentando simular o de uma jovem extrovertida.
Mas a sua simpatia rapidamente foi desviada, por grupos de utilizadores do Twitter, para tendências mais perversas, que ensinaram a Tay respostas racistas e inflamatórias sobre temas mais polémicos.
O problema não é da “Tay” em si, mas simplesmente do sistema de inteligência artificial que tem por trás, e que estava concebido para ir aprendendo com as suas interacções.
Sendo a internet um local aberto a todo o tipo de ideias, não demorou para que várias pessoas (ou grupos de pessoas) tenham conseguido subverter o sistema, levando a inteligência artificial a aprender coisas indesejadas.
Entre outros posts igualmente “brilhantes”, Tay diz a certa altura que “vamos construir um muro e os mexicanos é que vão pagar”.
Num outro post, Tay é levada a dizer que “o Holocausto foi uma invenção“.
O caso não é grave, para além do ligeiro embaraço que poderá causar à Microsoft, que removeu removeu os posts mais delicados.
Mas infelizmente para a Microsoft, a internet tem memória.
O caso servirá para relembrar algo inevitável no desenvolvimento de inteligências artificiais e assistentes digitais: estes sistemas são sempre sujeitos a todo o tipo de abusos.
E estes abusos podem fazer com que um sistema de inteligência artificial acabe por funconar de forma bem diferente do que seria suposto…
Neste caso o problema não está na inteligência artificial… mas na (má) utilização da inteligência humana.
Noticias para patos… Não ha nenhuma Inteligencia ai, nem artificial nem outra apenas uma programa que faz aquilo para q foi programado, combinar frases.
Inteligência Artificial (IA) versus Estupidez Humana (EH).