De manipulações em dados a artigos falsos produzidos em massa, as fraudes na literatura acadêmica não são novidade. No entanto, com o avanço da Inteligência Artificial (IA) generativa, esse problema tem se agravado ainda mais.
Cientistas forenses, conhecidos como “detetives científicos”, dedicam-se a identificar e coibir falsificações em estudos acadêmicos, mas a chegada de IA sofisticada tornou esse trabalho cada vez mais complexo.
Como essas ferramentas podem criar textos, imagens e dados realistas, existe agora o temor de uma “corrida armamentista” entre fraudadores e investigadores que tentam proteger a integridade científica.
A IA generativa oferece oportunidades sem precedentes para falsificadores, que conseguem criar artigos com dados e imagens falsas, quase indistinguíveis do material legítimo.
Em uma reportagem da revista Nature, Jana Christopher, analista de integridade de imagem da FEBS Press, na Alemanha, aponta que os profissionais de integridade científica estão “cada vez mais preocupados com as possibilidades” abertas por essa tecnologia.
Elisabeth Bik, especialista em análise forense de imagens, ressalta que, enquanto algumas revistas já permitem o uso de IA para gerar textos, a criação de dados e imagens artificiais ainda é vista com cautela. “Podemos permitir textos gerados por IA, mas a linha é tênue quando se trata de dados”.
A geração de imagens científicas com IA é um problema crescente, especialmente porque muitas dessas imagens são tão realistas que se tornam impossíveis de distinguir a olho nu. Christopher relata que já suspeita de imagens geradas por IA em artigos diariamente, mas sem provas claras, é difícil agir.
Em um caso famoso, uma imagem de um rato manipulada via IA, com características absurdas e sem sentido, foi publicada por engano, gerando repercussão e retirada rápida. Episódios como esse revelam o quanto essa tecnologia permite criar gráficos e dados falsificados de forma quase imperceptível.
Ao longo dos anos, os detetives científicos aprenderam a identificar indícios de manipulação digital, como padrões idênticos em imagens de biologia celular. No entanto, a IA torna esse trabalho mais difícil. “Vejo muitos artigos onde as imagens não parecem reais, mas isso não é prova suficiente”, observa Bik. Por outro lado, sinais de textos escritos por IA, como o uso de frases típicas de chatbots, estão se tornando mais evidentes.
Com a proliferação de imagens e textos gerados por IA, novas ferramentas estão sendo desenvolvidas para ajudar na detecção. Empresas como Imagetwin e Proofig estão expandindo seus algoritmos para detectar irregularidades criadas por IA em figuras científicas.
De acordo com Dror Kolodkin-Gal, cofundador da Proofig, sua ferramenta de detecção de imagens microscópicas criadas por IA foi testada com sucesso em milhares de imagens, alcançando uma taxa de acerto de 98%.
No entanto, esses sistemas ainda dependem da revisão humana para validação dos resultados, e Christopher destaca que, embora sejam limitadas, “são ferramentas valiosas para aumentar os esforços de triagem de envios”.
A revista Science, por exemplo, já utiliza o Proofig para verificar a integridade das imagens nos artigos submetidos. A Springer Nature, editora da Nature, desenvolveu suas próprias ferramentas de detecção, chamadas Geppetto e SnapShot, que identificam anomalias para análise humana.
Embora esses avanços sejam promissores, especialistas alertam que há uma necessidade urgente de novos padrões e tecnologias para validar dados e imagens de maneira eficiente. A criação de marcas d’água invisíveis para identificar imagens capturadas por microscópios, por exemplo, pode ser uma solução, sugere Christopher.
A Associação Internacional de Editores Científicos, Técnicos e Médicos (STM), sediada no Reino Unido, lançou projetos como o United2Act e o STM Integrity Hub, voltados para enfrentar as chamadas “fábricas de artigos” – empresas que produzem pesquisas falsas em massa para atender à demanda por publicações acadêmicas.
No entanto, existe o receio de que as editoras não estejam reagindo rápido o suficiente. “Estamos preocupados que isso se torne mais uma geração de problemas na literatura, que só será abordada quando for tarde demais”, afirma Kevin Patrick, analista de integridade conhecido como Cheshire nas redes sociais.
Ele demonstrou o quanto é fácil criar imagens falsas em minutos usando o recurso de preenchimento generativo do Photoshop, com exemplos realistas de culturas de células, manchas e tumores que poderiam facilmente passar como autênticos em artigos científicos.
Apesar das dificuldades, alguns especialistas mantêm uma visão otimista. Patrick, por exemplo, acredita que, embora golpistas possam enganar o sistema atual, as tecnologias de detecção continuarão a evoluir e poderão ser capazes de expor as fraudes que hoje passam despercebidas. “Em algum momento, o que parece sofisticado hoje será visto como rudimentar”, prevê ele, ressaltando que fraudadores devem estar conscientes de que suas falsificações provavelmente serão descobertas no futuro.
Nesse cenário, a combinação de ferramentas tecnológicas, políticas editoriais mais rigorosas e a expertise humana são fundamentais para proteger a ciência.
Ao mesmo tempo em que a Inteligência Artificial expande as possibilidades para criar fraudes, ela também se torna uma aliada na detecção de irregularidades.
Resposta do enigma: As imagens a, d e e são de artigos científicos reais. As imagens b, c e f foram geradas pelo software de Inteligência Artificial da Proofig
Fonte: Olhar Digital / Por Flavia Correia
Copyright © 2023. Todos os direitos reservados. Ascenda Digital Mídia LTDA.