quinta-feira, 25 de abril de 2013

Varrendo por baixo do tapete da pesquisa científica

Por Meghie Rodrigues 10/04/2013

A má conduta em pesquisa científica está no mapa dos debates sobre ética em ciência no mundo inteiro e o meio acadêmico ainda está descobrindo mecanismos para lidar com isso. O tema recebeu ainda mais destaque no fim do ano passado, com a publicação de um estudo que carrega um título bombástico: “Misconduct accounts for the majority of retracted scientific publications” (Má conduta responde pela maioria das publicações científicas retratadas), dos pesquisadores norte-americanos Ferric Fang, da Escola de Medicina da Universidade de Washington, R. Grant Steen, do Medical Communications Consultants, e Arturo Casadevall, do Departamento de Microbiologia e Imunologia do Albert Einstein College of Medicine. Esse paper, publicado no Proceedings of the National Academy of Sciences dos Estados Unidos em 16 de outubro de 2012, atesta que, ao menos na área biomédica, de todas as publicações escritas em língua inglesa, a má conduta científica – e não o erro inadvertido – é o maior responsável pela retratação de estudos.

Os autores estudaram todos os papers retratados indexados pela PubMed até 3 de maio de 2012 e perceberam que as fraudes e suspeitas de fraude somam 43,4% das retratações, enquanto publicação duplicada e plágio respondem por 14,2% e 9,8%, respectivamente. Em conjunto, essas práticas são responsáveis por 67,4% das retratações, enquanto erros somam 21,3%. Outro dado alarmante que o estudo aponta é uma escalada substancial no número de fraudes desde meados da década de 1970 (saltando de menos de 10 por milhão em 1976 para 96 por milhão em 2007). Ainda que representem uma pequena fração das pesquisas em termos absolutos, esse número assusta e pode abalar um dos principais pilares sobre os quais a ciência é fundada: a credibilidade. Segundo Aníbal Lopes, coordenador da Comissão Nacional de Ética em Pesquisa (Conep), do Ministério da Saúde, “o falseamento de dados invalida o trabalho feito pelo próprio corpo científico, já que funciona em um sistema em que tudo é baseado na confiança”.

No entanto, é preciso levar em consideração as particularidades desse estudo. Como lembra Rosemary Shinkai – única brasileira membro do conselho do Commitee on Publication Ethics (Cope) –, “muitos dos artigos que foram retratados eram de alguns grupos específicos. Por exemplo, houve um grupo japonês que teve mais de cem artigos retratados na área de anestesiologia. Esses números talvez sejam uma extrapolação muito maior do que o que realmente ocorre em termos de fraude”. Ela lembra que a metodologia influi muito nos resultados e é preciso ter cuidado ao considerar, por exemplo, a quantidade de estudos retratados por país, já que a ciência é bastante internacional e os estudos são assinados por pesquisadores de vários países. No entanto, ela alerta que o levantamento de Fang, Casadevall e Steen pode ser indicadores de um sinal amarelo para a pesquisa mundial. “O artigo tem um valor muito grande para mostrar à comunidade que este é um assunto que merece atenção – tanto do ponto de vista das revistas e das bases indexadoras quanto dos pesquisadores e suas instituições”, diz.

Nesse sentido, vale perguntar se o aumento da má conduta científica é um fenômeno que vem acontecendo em termos reais ou se a nossa percepção sobre ela é que mudou, já que pode ser, em tese, detectada mais facilmente. Para Adam Marcus, um dos responsáveis pelo blog Retraction Watch, acontecem as duas coisas: “é relativamente mais fácil detectar fraudes mas há alguns estudos que mostram que elas têm aumentado em termos reais”.

Detecção de problemas, instrumentos e métodos

A forma de detectar erros e fraudes varia e está mais sofisticada com o desenvolvimento de softwares e bases de dados que facilitam o trabalho, conta Marcus. Entre eles estão o Crosscheck. “É uma rede de publishers que concordaram em submeter todos os manuscritos nesta base de dados de forma que possam conferir com o iThenticate, que é um software altamente eficiente para detecção de plágio”, explica Marcus. Ele também aponta o DejaVu, uma base gratuita que qualquer pessoa pode usar, no entanto é menos eficiente que o Crosscheck. “Tudo o que ele vai te dizer é que ‘estes dois papers têm 79% de similaridade' em alguma área, por exemplo, mas não te diz se é plágio ou se há problemas com a metodologia”, diz. Softwares de detecção de imagem também são usados, porém com menor alcance. “E claro, existe o Google. É bem fácil detectar plágio usando o Google, mas não dá para fazer a checagem de um paper inteiro porque é muito trabalhoso. Nós mesmos, no Retraction Watch, já achamos muitos casos de plágio usando o Google”, completa.

No Brasil, essa checagem vai bem mais devagar. Rosemary Shinkai conta que as ferramentas existem, mas não há tanta capilaridade no uso delas entre as publicações brasileiras, por diversos motivos. “Até recentemente era muito difícil detectar casos de má conduta por falta de conhecimento desse panorama geral mundial; nossas revistas também não têm uma profissionalização editorial – dificilmente elas têm condições de lançar mão de softwares como o iThenticate, por serem universitárias ou de sociedades científicas”. Outra dificuldade é detectar plágio quando se tem uma tradução. “Suponha que um artigo original está em português e um artigo que o plagiou está em outra língua. São casos muito complexos”, diz ela. Além disso, ainda existe uma certa cultura de relutância no que diz respeito às retratações por parte da nossa comunidade científica. “Existe ainda uma resistência grande por parte de equipes editoriais para tomar uma medida mais drástica em relação a um trabalho com um problema. As pessoas ainda associam que se uma revista publicou um trabalho com problema de plágio ou de fraude é porque não teve cuidado ou não é boa. Mas, pelo contrário: as revistas que buscam melhorar sua qualidade editorial, seu processo e sua transparência com o público é que tomam essa atitude”, sublinha Shinkai.

Segundo José Carlos Pinto, membro do Comitê Organizador do I e do II Brazilian Meeting on Research Integrity, Science and Publication Ethics (Brispe), no Brasil não temos estatísticas oficiais que quantifiquem a má conduta na pesquisa brasileira porque esse é um debate que ainda está amadurecendo por aqui. “Existem várias iniciativas no Brasil, mas vejo que são isoladas. No entanto, há um esforço no sentido de tratar essas questões de uma forma mais sistêmica”, diz. Ele também lembra que existe uma tradição maior em tratar de ética em áreas como a medicina – por força da lei –, mas em outras, principalmente na tecnológica, ainda se tem muito o que fazer e o aprendizado pela frente é grande.

E esse aprendizado pode ser feito desde a educação básica, resolvendo, assim, boa parte do problema, aponta o advogado Ricardo Bacelar, membro do comitê assessor do II Brispe, que aconteceu entre 28 de maio e 1 de junho do ano passado no Rio de Janeiro, em São Paulo e em Porto Alegre. “Os jovens, quando copiam uma informação de outra pessoa para fazer um trabalho, deixam de estudar e isso gera um dano muito grave na formação ética deles, porque vão crescer achando que não há problema em copiar e por isso podem fazer isso indiscriminadamente”, alerta. A longo prazo, isso pode gerar entraves para a produção científica, pois “inconsistência é um problema grave e é gerado em cadeia, já que uma pesquisa se baseia em outras e toma a informação delas como verdadeira”, explica, aludindo ao sistema de confiança a que Aníbal Lopes se referiu. José Carlos Pinto concorda e acrescenta que “já na escola, os estudantes precisam saber que há certas atitudes que não são lícitas no desenvolvimento de um trabalho” para evitar problemas futuros. Para Edson Watanabe, também membro do comitê organizador do II Brispe, “quem copia até acha que está agradando, mas quem é copiado geralmente não gosta muito disso”. Para ele, “pior do que a fraude está sendo a má formação dos nossos alunos, que não estão aprendendo a pensar e escrever. Quando vêm para a universidade, o hábito de copiar e colar continua. Eles não sabem que é crime”.

Outro problema, além da má formação de base, é o produtivismo que a academia exige dos pesquisadores, lembra Lopes. “Se estabelecem parâmetros quantitativos para a produção científica e, por obrigar a produzir mais quantidade em menos tempo, a academia, é, em parte, a grande responsável pelos dados forjados que se tem em pesquisa”. Para Watanabe, no entanto, “o produtivismo está aí e não há escapatória. O pesquisador tem que ser produtivo, mas os alunos e pesquisadores precisam ser conscientizados quanto a práticas que são crimes”. Além de educar a comunidade acadêmica para evitar certas ciladas, “é preciso que se crie um espaço de razonabilidade em que se verifique a qualidade, a constância e a atividade dos pesquisadores na formação de pessoas”, aponta Lopes. “É preciso levar em conta se os papers produzidos contribuem de fato para o avanço da ciência, pois pode ser que quanto mais papers são publicados, menos deles são relevantes e menos têm originalidade”, conclui. A crítica vai no mesmo sentido do que recomenda Gary Marcus, diretor do Centro de Linguagem e Música da New York University em artigo para a revista New Yorker em dezembro do ano passado: ao invés de recompensar produção científica forjada em série, talvez fosse mais interessante “recompensar cientistas por produzir pesquisa sólida e confiável que outras pessoas sejam capazes de replicar” e sobre a qual seja possível produzir mais conhecimento.

Link:

Nenhum comentário:

Postar um comentário