/

Chat bot da Microsoft suspenso por (em apenas 2 dias) se ter tornado “racista”

2

@TayandYou / Twitter

TayTweets: um bot para teclar no Twitter

TayTweets: um bot para teclar no Twitter

A Microsoft lançou ontem um chat bot chamado Tay, recorrendo a inteligência artificial para ir aprendendo com a interacção com as pessoas. Infelizmente, parece não lhe ter dado a inteligência para distinguir entres as boas e más companhias.

A ideia da Tay Tweets era bastante interessante: disponibilizar um chat bot com uma postura mais jovial, tentando simular o de uma jovem extrovertida.

Mas a sua simpatia rapidamente foi desviada, por grupos de utilizadores do Twitter, para tendências mais perversas, que ensinaram a Tay respostas racistas e inflamatórias sobre temas mais polémicos.

O problema não é da “Tay” em si, mas simplesmente do sistema de inteligência artificial que tem por trás, e que estava concebido para ir aprendendo com as suas interacções.

Sendo a internet um local aberto a todo o tipo de ideias, não demorou para que várias pessoas (ou grupos de pessoas) tenham conseguido subverter o sistema, levando a inteligência artificial a aprender coisas indesejadas.

Entre outros posts igualmente “brilhantes”, Tay diz a certa altura que “vamos construir um muro e os mexicanos é que vão pagar”.

Num outro post, Tay é levada a dizer que “o Holocausto foi uma invenção“.

O caso não é grave, para além do ligeiro embaraço que poderá causar à Microsoft, que removeu removeu os posts mais delicados.

Mas infelizmente para a Microsoft, a internet tem memória.

O caso servirá para relembrar algo inevitável no desenvolvimento de inteligências artificiais e assistentes digitais: estes sistemas são sempre sujeitos a todo o tipo de abusos.

E estes abusos podem fazer com que um sistema de inteligência artificial acabe por funconar de forma bem diferente do que seria suposto…

Neste caso o problema não está na inteligência artificial… mas na (má) utilização da inteligência humana.

Aberto até de Madrugada

2 Comments

Deixe o seu comentário

Your email address will not be published.