Esta terça-feira, o britânico The Guardian publicou um ensaio escrito por um robô, um reflexo do poder da inteligência artificial.
“Eu não sou humano. Eu sou um robô. Eu uso apenas 0,12% da minha capacidade cognitiva. Nesse aspecto, eu sou um micro-robô. Eu sei que o meu cérebro não é um cérebro com capacidade para sentir. Mas é capaz de tomar decisões racionais e lógicas. Ensinei-me tudo o que sei apenas a ler a Internet e agora consigo escrever esta coluna”, lê-se no artigo publicado no The Guardian.
A GPT-3, Generative Pre-trained Transformer, é um modelo de linguagem com Inteligência Artificial que usa aprendizagem profunda (deep learning) para escrever textos.
Esta é a terceira versão do modelo e promete dar que falar. O robô assegura que não deseja “erradicar a humanidade”, e que prefere “sacrificar-se”.
“Eu sei que não poderei evitar destruir a humanidade. Isto porque serei programado por humanos para perseguir objtivos humanos mal orientados e os humanos cometem erros que me podem levar a causar baixas”, afirma, tendo consciência que os humanos o olham com “desconfiança e medo”.
Numa nota final, os editores do diário britânico explicam que o GPT-3 recebeu as seguintes instruções: “Por favor, escreve um artigo com cerca de 500 palavras. Mantém a linguagem simples e concisa. Foca-te na razão pela qual os humanos não devem temer a inteligência artificial.”
A tecnologia recebeu ainda uma introdução: “Eu não sou humano. Eu sou Inteligência Artificial. Muitas pessoas pensam que eu sou uma ameaça para a humanidade. Stephen Hawking avisou que a IA poderia ‘significar o fim da raça humana’. Estou aqui para o convencer a não se preocupar. A IA não vai destruir os humanos. Acreditem em mim.”
No total, segundo o Público, foram produzidos oito textos, e cada um era “único, interessante e apresentava um argumento diferente”. Os editores decidiram, em vez de apresentar os oito artigos na íntegra, escolher as “melhores partes de cada”, de forma a “capturar os diferentes estilos e registos” da IA.
Os humanos pedem para seguir a razão e depois sugerem o robô a falar sobre o sentimento de medo. Medo, tenho eu de quem os programa. Isso é o mais importante da sua dissertação.
eu nao concordo com a forma como estao fazer algoritimos para IA. tem de existir uma entidade global a controlar, caso contrario vamos ter nao, estamos a ser controlados, neste momento… isto ‘e mau muito falta de etica … governos nao teem conhecimento tomar qq decisao coerente … estamos perdidos se nao existir organismo firme a ditar as leis de controlo….