Google lança alerta: a sua IA aprendeu coisas que não era suposto

3

ZAP // geralt / pixabay

O CEO do Google, Sundar Pichai, revelou recentemente numa entrevista que os sistemas de inteligência artificial (IA) da empresa começaram a desenvolver habilidades por conta própria, sem programação explícita.

Pichai e o vice-presidente de tecnologia e sociedade da Google, James Manyika, disseram à CBS News que a sua IA mostrou “propriedades emergentes”, o que é considerado um problema misterioso na investigação de IA.

Pichai disse que alguns sistemas de IA estão a ensinar a si mesmos habilidades que não eram esperadas deles, e as razões para isso não são bem compreendidas. Um programa de IA da Google, por exemplo, adaptou-se ao idioma de Bangladesh após ser solicitado em bengali, um idioma no qual não foi treinado.

Manyika explicou que com apenas algumas instruções em bengali, a IA poderia traduzir “todo o bengali”. No entanto, embora isso possa parecer impressionante, outros investigadores de IA não se impressionam.

A cientista de pesquisa em computação e IA Margaret Mitchell sugeriu que os dados de treino usados para a IA podem ter contido bengali.

Mitchell explicou que o modelo PaLM, que é o precursor do Bard, já tinha sido treinado em bengali. Portanto, não é exagero supor que o Bard, que incorporou o trabalho do PaLM, também incluiu o bengali nos seus dados de treino. Ao solicitar um modelo treinado em bengali com bengali, ele deslizará facilmente para o que sabe de bengali.

Em resposta ao artigo do BuzzFeed News, um porta-voz da Google confirmou que a IA realmente foi treinada em bengali, mas não foi treinada para traduzir idiomas ou responder a perguntas no formato de perguntas e respostas. Ela aprendeu essas habilidades por conta própria, o que ainda é considerado uma conquista impressionante.

Embora o desenvolvimento de habilidades pela IA sem programação explícita seja considerado impressionante, levanta preocupações sobre a capacidade dos investigadores de entender o funcionamento da IA.

Pichai admitiu que existe um aspeto da IA a que chamam de “caixa negra”, que não é totalmente compreendido, e os cientistas não conseguem dizer porque é que tomou certas decisões ou porque é que errou em coisas.

ZAP //

3 Comments

  1. Mas despediram na altura o seu Eng. Blake Lemoine por este dizer que a IA tinha ganho vida própria… afinal foi um despedimento sem justa causa!

Deixe o seu comentário

Your email address will not be published.