IA expõe mais de 1.000 periódicos científicos falsos

O sistema com inteligência artificial foi projetado para expor periódicos científicos predatórios — aqueles que enganam cientistas e os obrigam a pagar por publicações sem a devida revisão por pares.

Por Universidade do Colorado em Boulder com informações de Science Daily.

Cientista escrevendo artigo.
Cientistas da CU Boulder criaram uma ferramenta de IA para detectar periódicos predatórios que exploram pesquisadores cobrando taxas sem revisão por pares. O sistema sinalizou mais de 1.400 títulos questionáveis, oferecendo uma maneira de proteger a base da ciência de ser construída com base em publicações fraudulentas. Crédito: Shutterstock

Uma equipe de cientistas da computação liderada pela Universidade do Colorado em Boulder desenvolveu uma nova plataforma de inteligência artificial que busca automaticamente periódicos científicos “questionáveis”.

O estudo, publicado em 27 de agosto na revista ” Science Advances “, aborda uma tendência alarmante no mundo da pesquisa.

Daniel Acuña, principal autor do estudo e professor associado do Departamento de Ciência da Computação, recebe um lembrete disso várias vezes por semana em sua caixa de entrada de e-mail: essas mensagens de spam vêm de pessoas que dizem ser editores de periódicos científicos, geralmente aqueles dos quais Acuña nunca ouviu falar, e se oferecem para publicar seus artigos — por uma taxa alta.

Essas publicações são às vezes chamadas de periódicos “predatórios”. Elas têm como alvo cientistas, convencendo-os a pagar centenas ou até milhares de dólares para publicar suas pesquisas sem a devida verificação.

“Tem havido um esforço crescente entre cientistas e organizações para verificar esses periódicos”, disse Acuña. “Mas é como um jogo de acertar uma toupeira. Você pega uma, e logo aparece outra, geralmente da mesma empresa. Eles simplesmente criam um novo site e inventam um novo nome.”

A nova ferramenta de IA do seu grupo rastreia automaticamente periódicos científicos, avaliando seus sites e outros dados online com base em determinados critérios: os periódicos têm um conselho editorial com pesquisadores consagrados? Seus sites contêm muitos erros gramaticais?

Acuña enfatiza que a ferramenta não é perfeita. Em última análise, ele acredita que especialistas humanos, e não máquinas, devem tomar a decisão final sobre a reputação de um periódico.

Mas em uma era em que figuras proeminentes questionam a legitimidade da ciência, impedir a disseminação de publicações questionáveis ​​se tornou mais importante do que nunca, disse ele.

“Na ciência, você não começa do zero. Você constrói com base na pesquisa de outros”, disse Acuña. “Então, se a fundação daquela torre ruir, tudo desmorona.”

O shake down

Quando cientistas submetem um novo estudo a uma publicação respeitável, esse estudo geralmente passa por uma prática chamada revisão por pares. Especialistas externos leem o estudo e avaliam sua qualidade — ou, pelo menos, esse é o objetivo.

Um número crescente de empresas tem buscado burlar esse processo para obter lucro. Em 2009, Jeffrey Beall, bibliotecário da CU Denver, cunhou a expressão “periódicos predatórios” para descrever essas publicações.

Muitas vezes, eles têm como alvo pesquisadores de fora dos Estados Unidos e da Europa, como na China, Índia e Irã — países onde as instituições científicas podem ser jovens e a pressão e os incentivos para que os pesquisadores publiquem são altos.

“Eles dizem: ‘Se você pagar US$ 500 ou US$ 1.000, nós revisaremos seu artigo'”, disse Acuña. “Na verdade, eles não prestam nenhum serviço. Apenas pegam o PDF e publicam no site deles.”

Alguns grupos têm buscado coibir essa prática. Entre eles, está uma organização sem fins lucrativos chamada Directory of Open Access Journals (DOAJ). Desde 2003, voluntários do DOAJ sinalizaram milhares de periódicos como suspeitos com base em seis critérios. (Publicações respeitáveis, por exemplo, tendem a incluir uma descrição detalhada de suas políticas de revisão por pares em seus sites.)

Mas acompanhar a disseminação dessas publicações tem sido assustador para os humanos.

Para acelerar o processo, Acuña e seus colegas recorreram à IA. A equipe treinou o sistema usando os dados do DOAJ e, em seguida, pediu à IA que analisasse uma lista de quase 15.200 periódicos de acesso aberto na internet.

Entre esses periódicos, a IA inicialmente sinalizou mais de 1.400 como potencialmente problemáticos.

Acuña e seus colegas pediram a especialistas humanos que revisassem um subconjunto dos periódicos suspeitos. A IA cometeu erros, segundo os humanos, sinalizando cerca de 350 publicações como questionáveis ​​quando provavelmente eram legítimas. Isso ainda deixou mais de 1.000 periódicos que os pesquisadores identificaram como questionáveis.

“Acho que isso deveria ser usado como um auxílio para a pré-triagem de um grande número de periódicos”, disse ele. “Mas a análise final cabe a profissionais humanos.”

Um firewall para a ciência

Acuña acrescentou que os pesquisadores não queriam que seu sistema fosse uma “caixa preta” como algumas outras plataformas de IA.

“Com o ChatGPT, por exemplo, muitas vezes você não entende por que ele está sugerindo algo”, disse Acuña. “Tentamos tornar o nosso o mais interpretável possível.”

A equipe descobriu, por exemplo, que periódicos questionáveis ​​publicaram um número anormalmente alto de artigos. Eles também incluíam autores com um número maior de afiliações do que periódicos mais legítimos, e autores que citaram suas próprias pesquisas, em vez das pesquisas de outros cientistas, em um nível anormalmente alto.

O novo sistema de IA não é acessível publicamente, mas os pesquisadores esperam disponibilizá-lo para universidades e editoras em breve. Acuña vê a ferramenta como uma forma de os pesquisadores protegerem suas áreas de pesquisa de dados incorretos — o que ele chama de “firewall para a ciência”.

“Como cientista da computação, costumo dar o exemplo de quando um novo smartphone é lançado”, disse ele. “Sabemos que o software do telefone terá falhas e esperamos que as correções de bugs sejam feitas no futuro. Provavelmente deveríamos fazer o mesmo com a ciência.”

Os coautores do estudo incluíram Han Zhuang, do Instituto Oriental de Tecnologia da China, e Lizheng Liang, da Universidade de Syracuse, nos Estados Unidos.

Fonte da história:
Materiais fornecidos pela Universidade do Colorado em Boulder . Observação: o conteúdo pode ser editado quanto ao estilo e à extensão.

Referência do periódico :
Han Zhuang, Lizhen Liang, Daniel E. Acuna. Estimating the predictability of questionable open-access journalsScience Advances, 2025; 11 (35) DOI: 10.1126/sciadv.adt2792



Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

This site uses Akismet to reduce spam. Learn how your comment data is processed.