Resumos falsificados foram gerados a partir de informações sobre o trabalho do investigador em poucos segundos.
Um estudo feito com investigadores revelou que o ChatGPT, inteligência artificial de conversa humanizada da OpenAI, conseguiu enganar os cientistas criando resumos de estudos reais.
O objetivo era descobrir se a IA era capaz de produzir conteúdo científico de modo semelhante a um investigador, o que ligaria o alerta dos académicos para evitar o seu uso indevido.
Em quase um terço das vezes, a ferramenta conseguiu fazer-se passar por um humano ao redigir um abstract, aquela introdução usada em pesquisas e trabalhos científicos. Os resumos falsificados foram gerados a partir de informações sobre o trabalho do investigador em poucos segundos.
Os investigadores das universidades de Northwestern e de Chicago, ambas nos Estados Unidos, instruíram o ChatGPT a gerar resumos de pesquisas baseados em 10 conteúdos publicados em revistas médicas.
A IA foi alimentada com dados dos estudos científicos para produzir um conteúdo referencial que se passasse por verdadeiro.
Quais os resultados da pesquisa com o ChatGPT?
O resultado foi submetido junto dos resumos originais a dois programas de detecção de plágio e identificação de conteúdos falsos.
Os apps identificaram corretamente os resumos feitos pelo ChatGPT em apenas 68% das vezes.
Os cientistas tiveram o conteúdo rotulado incorretamente em 14% dos casos — resumos reais foram marcados como falsos.
Embora os artigos falsos fossem considerados únicos quando medidos pelo programa de detecção de plágio, apenas 8% seguiram os requisitos de formatação exigidos pelas revistas científicas.
Revisores humanos disseram que os documentos fake eram mais vagos e tinham uma “forma de escrever estereotipada”.
Mesmo assim, disseram ser muito difícil determinar quais eram reais e quais não eram – sem ajuda da tecnologia.
O que deve mudar nos artigos científicos?
Os investigadores agora querem estabelecer regras ainda mais rígidas para periódicos, artigos e estudos científicos, pois assim os padrões ficarão mais elevados para dificultar a criação por IAs.
Quem desenvolve programas de análise de plágio também deverá preparar-se para implementar algumas ferramentas de detecção de padrões típicos da escrita por robôs.
Existe o temor real de essa tecnologia ser usada de modo indevido por estudantes nos trabalhos escolares e até profissionais mais preguiçosos no mercado de trabalho.
A criação de conteúdo poderia esbarrar em graves questões envolvendo o direito de autor, já que mais de uma pessoa poderia declarar-se proprietária de um material gerado por uma máquina.
O ChatGPT tem uma interface simples de caixa de texto na qual as pessoas podem conversar, tirar dúvidas ou pedir a realização de tarefas básicas.
A inteligência artificial consegue imitar o modo humano de escrever, possibilitando uma interação natural com as pessoas.
A ferramenta já se mostrou capaz de programar códigos de computador em Python, produzir publicações para redes sociais e até escrever ensaios de nível universitário.
Existe a possibilidade de ajudar a detectar Alzheimer, com até 80% de precisão na previsão dos estágios iniciais da demência.
A versatilidade chamou a atenção da internet nos últimos, tanto que a Microsoft já planeja introduzir a caixa de texto da IA no mecanismo de busca Bing. A empresa pretende incorporá-lo ao Word, PowerPoint e Outlook para otimizar a realização de atividades.
// Canaltech