ChatGPT anda a enganar cientistas

Resumos falsificados foram gerados a partir de informações sobre o trabalho do investigador em poucos segundos.

Um estudo feito com investigadores revelou que o ChatGPT, inteligência artificial de conversa humanizada da OpenAI, conseguiu enganar os cientistas criando resumos de estudos reais.

O objetivo era descobrir se a IA era capaz de produzir conteúdo científico de modo semelhante a um investigador, o que ligaria o alerta dos académicos para evitar o seu uso indevido.

Em quase um terço das vezes, a ferramenta conseguiu fazer-se passar por um humano ao redigir um abstract, aquela introdução usada em pesquisas e trabalhos científicos. Os resumos falsificados foram gerados a partir de informações sobre o trabalho do investigador em poucos segundos.

Os investigadores das universidades de Northwestern e de Chicago, ambas nos Estados Unidos, instruíram o ChatGPT a gerar resumos de pesquisas baseados em 10 conteúdos publicados em revistas médicas.

A IA foi alimentada com dados dos estudos científicos para produzir um conteúdo referencial que se passasse por verdadeiro.

Quais os resultados da pesquisa com o ChatGPT?

O resultado foi submetido junto dos resumos originais a dois programas de detecção de plágio e identificação de conteúdos falsos.

Os apps identificaram corretamente os resumos feitos pelo ChatGPT em apenas 68% das vezes.

Os cientistas tiveram o conteúdo rotulado incorretamente em 14% dos casos — resumos reais foram marcados como falsos.

Embora os artigos falsos fossem considerados únicos quando medidos pelo programa de detecção de plágio, apenas 8% seguiram os requisitos de formatação exigidos pelas revistas científicas.

Revisores humanos disseram que os documentos fake eram mais vagos e tinham uma “forma de escrever estereotipada”.

Mesmo assim, disseram ser muito difícil determinar quais eram reais e quais não eram – sem ajuda da tecnologia.

O que deve mudar nos artigos científicos?

Os investigadores agora querem estabelecer regras ainda mais rígidas para periódicos, artigos e estudos científicos, pois assim os padrões ficarão mais elevados para dificultar a criação por IAs.

Quem desenvolve programas de análise de plágio também deverá preparar-se para implementar algumas ferramentas de detecção de padrões típicos da escrita por robôs.

Existe o temor real de essa tecnologia ser usada de modo indevido por estudantes nos trabalhos escolares e até profissionais mais preguiçosos no mercado de trabalho.

A criação de conteúdo poderia esbarrar em graves questões envolvendo o direito de autor, já que mais de uma pessoa poderia declarar-se proprietária de um material gerado por uma máquina.

O ChatGPT tem uma interface simples de caixa de texto na qual as pessoas podem conversar, tirar dúvidas ou pedir a realização de tarefas básicas.

A inteligência artificial consegue imitar o modo humano de escrever, possibilitando uma interação natural com as pessoas.

A ferramenta já se mostrou capaz de programar códigos de computador em Python, produzir publicações para redes sociais e até escrever ensaios de nível universitário.

Existe a possibilidade de ajudar a detectar Alzheimer, com até 80% de precisão na previsão dos estágios iniciais da demência.

A versatilidade chamou a atenção da internet nos últimos, tanto que a Microsoft já planeja introduzir a caixa de texto da IA no mecanismo de busca Bing. A empresa pretende incorporá-lo ao Word, PowerPoint e Outlook para otimizar a realização de atividades.

Deixe o seu comentário

Your email address will not be published.