/

Inocentes na prisão, empregos ameaçados e jornalistas ChatGPT. Os perigos da revolução da IA

1

ZAP // Dall-E-2

A revolução da inteligência artificial generativa promete facilitar a nossa vida em vários aspectos, mas também esconde muitos perigos — e alguns até fatais.

Parece que todos os dias saem novas notícias sobre os avanços do ChatGPT — e o ZAP é certamente um dos culpados desta tendência. Mas nem tudo é um mar de rosas e esta nova revolução da inteligência artificial (IA) esconde vários riscos.

Empregos ameaçados

Um dos principais perigos é a capacidade do ChatGPT de passar com facilidade vários exames e provas que exigem imenso anos de estudos a humanos. Recentemente, o robô passou com distinção um exame de código informático usado pelos recrutadores da Google e também um exame de Medicina.

O risco aqui é óbvio: os alunos podem recorrer a estas ferramentas para fazer batota nos exames ou para fazer trabalhos por si. Há já várias escolas e universidades a banir o ChatGPT e a chumbar os alunos que são apanhados a usá-lo para fraude.

Esta capacidade de aprendizagem aparentemente infinita da Inteligência Artificial também ameaça dizimar vários empregos. Se há já vários anos que vemos máquinas a substituir funcionários de caixas de supermercados ou de portagens, a ameaça está agora a chegar às profissiões que exigem qualificações e anos de estudo, como os engenheiros informáticos ou os arquitectos.

O arquitecto Neil Leach escreve na Dezeen que a inteligência artificial generativa é uma ameaça existencial ao futuro da sua profissão. “Fiquei alarmado pela primeira vez com o ChatGPT quando um colega brasileiro, chateado por o Neymar não ter sido escolhido para bater o primeiro penálti contra a Croácia no Mundial, perguntou ao ChatGPT quem devia ter sido seleccionado. A resposta imediata foi o Neymar“, diz.

“As implicações disto são alarmantes. Podem os treinadores de futebol agora usar o ChatGPT para conselhos durante um jogo? Ou podem outros usá-lo para conselhos mais gerais? Não podemos usar o ChatGPT, por exemplo, para nos recomendar materiais a especificar para um edifício? De facto, não pode qualquer pessoa fazer isso, incluindo quem não é arquitecto?“, questiona.

Arte com os dias contados

Um dos sectores mais ameaçados é, certamente, a arte. Com a IA a conseguir criar obras de arte deslumbrantes em meros segundos e a replicar o estilo de artistas como Rembrandt, o trabalho dos pintores e designers gráficos pode ter os dias contados.

Os artistas visuais não são os únicos ameaçados. Nas últimas semanas têm circulado nas redes sociais vários covers de cantores a interpretar músicas de outros artistas, como a versão de Ariana Grande da canção “Kill Bill” de SZA. O problema? Ariana Grande nunca gravou a sua versão desta canção e a sua “voz” foi gerada por um algoritmo de inteligência artificial.

O ChatGPT também já foi recrutado por um fã para escrever uma canção ao estilo de Nick Cave, algo que prontamente fez à velocidade da luz. O cantor australiano reagiu descrevendo a música como uma “porcaria” e criticando a falta do toque humano nas canções geradas por IA. “Escrever uma boa canção não é mimetismo, ou replicação, é o oposto”, frisou.

Para além dos cantores, os dobradores também estão a sentir a pressão da indústria do entertenimento para darem autorização aos estúdios de cinema para criar versões sintéticas das suas vozes, podendo assim automatizar o seu trabalho.

Os guionistas vão pelo mesmo caminho. A startup Deepmind anunciou recentemente o lançamento de uma ferramenta chamada Dramatron, que descreve como um “co-guionista” que serve para ajudar os escritores ao gerar descrições de personagens, descrições de locais e diálogo de forma interactiva.

Direitos de autor e privacidade

Quando os modelos de IA como o ChatGPT e o DALL-E criam algo, não estão mesmo a criar algo. Na verdade, estas ferramentas apenas reorganizam os milhares de milhões de exemplos a que foram expostas quando foram treinadas, dependendo daquilo que lhe pedimos.

Queremos que o ChatGPT escreva uma canção ao estilo de Nick Cave? O que o algoritmo fará é rever o catálogo do cantor e de outros artistas semelhantes, analisar os temas mais repetidos e reorganizar vários trechos de uma nova forma.

Ou seja, o que estas ferramentas fazem é plágio, dado serem incapazes de criar algo verdadeiramente novo. Por vezes, o plágio é tão óbvio que os professores conseguem facilmente detectar se os alunos recorreram à IA para fazer um trabalho.

Se o plágio é um problema no ensino, no caso da criação artística, coloca-se o problema dos direitos de autor. Se um humano se inspira no trabalho de outro para criar uma obra, o artista original tem direito a parte dos ganhos. Será que o mesmo se vai aplicar às criações da Inteligência Artificial? Como se vai controlar?

Tudo isto leva ainda a uma estagnação intelectual e criativa. A maioria dos sistemas de IA apoia-se apenas nos dados usados no seu treino. O que acontece quando nos tornamos tão dependentes do ChatGPT que já não temos material novo para treinar os algoritmos e apenas consegue regurgitar o que já foi feito?

Também não tardará a que esta tecnologia seja usada por pessoas mal-intencionadas. Os algoritmos são expostos a milhares de milhões de informações no seu treino — e algumas destas certamente serão sensíveis.

Por exemplo, imaginemos que um grupo criminoso quer infiltrar um alvo específico, mas não tem acesso às coordenadas GPS do edifício. Nestes casos, pode simplesmente perguntar o momento exato em que o sol nasce durante várias semanas naquele local. Uma IA obediente irá responder.

Já nem sabemos o que é real

A linha entre a realidade e a ficção também está cada vez mais ténue. O surgimento das deepfakes — que permitem colocar os rostos de pessoas no corpo de outra e fabricar vídeos falsos com uma aparência realista —, aliado agora às vozes sintéticas, facilita ainda mais a criação e circulação de notícias falsas.

E pior ainda é o inevitável nascimento de jornalistas IA. Recentemente, o site noticioso CNET foi apanhado a usar um algoritmo para escrever dezenas de artigos. Apesar de ter anunciado que ia suspender o uso da IA para o trabalho jornalístico, o CNET deixou claro que esta suspensão é apenas um “até já” e não um “adeus” definitivo a esta práctica.

Usar um algoritmo notoriamente falível e automatizado num sector que se baseia na precisão dos factos? O que pode correr mal aqui?

 

Preconceitos do costume

A IA é justa, foca-se na lógica e nasce sem preconceitos. O problema é que as informações usadas para treinar os algoritmos são criadas por humanos; e os humanos estão longe de ser tão imparciais como a inteligência artificial.

Se os dados que treinam a IA são tendenciosos, os resultados irão reflectir isso. Um exemplo recente foi o episódio infinito de “Nothing, Forever”, uma paródia de Seinfeld gerada por IA. A série foi suspensa do Twitch após uma das personagens fazer piadas homofóbicas e transfóbicas.

Se este exemplo é relativamente inofensivo, há outros que não o são. O viés racista nos algoritmos pode mesmo ser fatal, como nos sistemas de detecção de peões dos carros autónomos, que têm uma maior tendência para atropelar pessoas com peles mais escuras.

O uso desta tecnologia na justiça é ainda mais preocupante. Nos Estados Unidos, há já várias condenações que foram revertidas ou estão a ser contestadas em tribunal porque tiveram por base software de reconhecimento facial que notoriamente é pouco preciso na distinção de pessoas com tons de pele mais escuros.

Dada a propensão ao erro do ChatGPT, a sua aplicação na justiça levanta ainda mais questões e dúvidas sobre se estamos a usar a ferramenta da forma correcta.

“Estes sistemas cometem erros”

De acordo com Eric Schmidt, o ex-CEO do Google, tudo depende da forma como decidimos aplicar a inteligência artificial generativa.

“Os sistemas que estou a descrever têm a propriedade interessante de cometer erros. Não queremos estes sistemas a pilotar o avião, queremos que estejam a aconselhar os pilotos. Não os queremos em algo que envolva coisas críticas para a vida, porque eles cometem erros”, frisa.

O especialista dá uma exemplo — pediu ao ChatGPT que escreve um ensaio sobre como todos os arranha-céus com mais de 300 metros devem ser feitos de manteiga, algo que a ferramente prontamente fez.

“Podemos fazer uma série de perguntas que o farão acreditar que para cima é para baixo, que a gravidade não existe e que a esquerda se torna direita, coisas que não fazem sentido para qualquer ser humano”, afirma.

E Schmidt termina com um alerta: “A minha indústria assumiu a posição de que estas coisas são só boas e que as devemos dar a toda a gente. Não acho que isso ainda seja verdade, é demasiado poderoso“.

Adriana Peixoto, ZAP //

Siga o ZAP no Whatsapp

1 Comment

  1. Excelente artigo este do zap.

    Segundo julgo saber a IA e as aplicações nela baseada como o chatgpl é baseada em algoritmos, que têm autoria humana.

    Portanto os engenheiros informáticos que desenharam e conceberam estas aplicações estes algoritmos têem claramente de ser publicamente nomeados, e responsabilizados nos casos de acidentes ou mortes causados pelos erros da aplicação.

    E se os hackers russos ou chineses inundarem subtil e eficazmente os sistemas dos servidores ocidentais com informações falsas e e perigosas para a
    saúde,comprometendo a segurança da informação obtenivel nestas aplicações, por ex.?

Deixe o seu comentário

Your email address will not be published.