Imprimir Republish

Buenas prácticas

La integridad en medio de la emergencia sanitaria

Un estudio recopila recomendaciones con miras a preservar la calidad de la evaluación de los artículos científicos en la ansiedad de la pandemia

Hudiemm/ Getty Images

Un estudio publicado por investigadores de España, Dinamarca y Canadá en la revista Nature Human Behaviour mostró que las revistas científicas tardaron, en promedio, tan solo seis días para evaluar y aceptar para su publicación artículos sobre el covid-19 durante las primeras 12 semanas de la pandemia, en un esfuerzo sin precedentes para generar resultados rápidos capaces de mitigar los efectos de la emergencia sanitaria. Ese proceso, que implica la elaboración de un análisis a cargo de los editores e investigadores especializados en el tema de los artículos, demoraba 100 días, por término medio, en tiempos normales. El grupo se centró en el conjunto de papers incluido en la base de datos Pubmed entre el 30 de enero y el 23 de abril y contabilizó la publicación de 367 artículos sobre la enfermedad durante cada semana de ese período en los periódicos especializados.

Con la conducción del hepatólogo Jeffrey Lazarus, del Instituto de Salud Global de la Universidad de Barcelona, el estudio denota preocupación por los perjuicios que esa velocidad puede acarrearle a la credibilidad de la ciencia, cuando se publican inadvertidamente artículos con errores o fraudes. El sitio web Retraction Watch da cuenta de 30 estudios sobre el covid-19 que fueron retractados por revistas científicas o eliminados de repositorios de preprints, una cifra pequeña dentro de un global de más de 40 mil trabajos publicados, pero con potencial para generar revuelo. Para reducir riesgos y daños, Lazarus y sus colegas proponen una guía de recomendaciones dirigida a investigadores, editores de revistas y autoridades. Una de las sugerencias es la utilización de checklists que les permitan a los editores evaluar la solidez de la metodología o del análisis estadístico de las investigaciones con el propósito de verificar si los resultados presentados tienen sentido o son compatibles con la propuesta original del trabajo. Esas listas de control no constituyen una novedad, pero los autores advierten indicios de que no se las está contemplando en toda su dimensión en el análisis rápido de manuscritos durante la pandemia.

La iniciativa Strobe (siglas en inglés que significa Fortalecimiento de Informes de Estudios de Observación en Epidemiología), creada en 2009 por la Universidad de Berna, en Suiza, constituye un ejemplo a tener en cuenta, según el grupo de Lazarus. La misma proporciona una lista de informaciones sobre el diseño de la investigación que los responsables de los estudios epidemiológicos deben presentar para que los revisores puedan confiar en la calidad de los resultados, tales como los criterios para la selección de participantes, la descripción de los métodos estadísticos y los recaudos tomados para evitar sesgos. Otro ejemplo es Consort (acrónimo en inglés de Estándares Consolidados para la Comunicación de Ensayos), pensada para el monitoreo de los resultados de ensayos clínicos.

La Asociación Europea de Editores de Ciencia emitió en abril una declaración pública acerca de las precauciones necesarias en el proceso de revisión de artículos referidos a la pandemia. Entre las sugerencias, propone la incorporación en los papers de una declaración de los autores exponiendo las limitaciones de sus hallazgos –cuando se basan en modelos computacionales y no en estudios con seres vivos o cuando el parámetro sea una cantidad reducido de pacientes, por ejemplo– y también recomienda que los datos brutos que sirvan de base para los estudios queden a disposición.

La selección de los investigadores encargados de analizar los artículos es otro punto vulnerable según el trabajo: se debe garantizar que los revisores estén preparados para realizar un análisis rápido y al mismo tiempo riguroso. La buena noticia es que existen herramientas que ya han probado su eficacia para la capacitación de revisores con poca experiencia, tales como el COBPeer, que utiliza los checklist previstos por la iniciativa Consort. “El desafío que implica difundir un gran volumen de investigaciones en el marco de una emergencia sanitaria global debe ser reconocido como un llamado a la reflexión innovadora y a la aplicación de soluciones que aseguren la confianza continua en el proceso de publicación científica”, escribieron Lazarus y sus pares. “Las lecciones aprendidas servirán para enriquecer la publicación científica en forma más amplia en los años venideros”.

El grupo también sugiere que se invierta en la curaduría de la información científica sobre el covid-19 y cita proyectos que merecerían ser incentivados, tales como bancos de datos que recopilan miles de artículos de importancia sobre el nuevo coronavirus. Un ejemplo es LitCovid, creado por la Biblioteca Nacional de Medicina de Estados Unidos, que reúne más de 30 mil trabajos publicados y permite realizar búsquedas por categoría (estudios de casos, escenarios, prevención, etc.) y por país mencionado en cada manuscrito. Otro de ellos es la base de datos sobre el nuevo coronavirus de la Organización Mundial de la Salud (OMS), que recopila más de 40 mil trabajos. También hay iniciativas que apuntan a evaluar y sintetizar el conocimiento acumulado sobre la enfermedad, tales como la de la Biblioteca Cochrane, que creó una sección sobre el covid-19 con análisis y revisiones sobre artículos publicados, y la de la Escuela de Salud Pública Bloomberg Johns Hopkins, que convocó a un equipo de 40 expertos para realizar un análisis pormenorizado de los estudios con resultados prometedores o que estén concitando mucha atención en la prensa y en las redes sociales.

Hay otras iniciativas en curso. La editorial MIT Press anunció la creación de una nueva revista científica –Rapid Reviews: covid-19– enfocada en la producción de reseñas de preprints sobre el nuevo coronavirus, con el propósito de poner de relieve las investigaciones de impacto y señalar aquellas que contienen errores o distorsiones. Los preprints son trabajos que aún no han sido sometidos a una revisión por pares y cuyos resultados, aún preliminares, se divulgan en repositorios públicos para su evaluación y crítica por otros expertos. Durante la pandemia, se pusieron a disposición miles de estos trabajos sobre el nuevo coronavirus. “Los preprints suponen un enorme beneficio para la comunicación científica, pero traen aparejados algunos peligros, tal como pudimos verificar con algunos ejemplos basados en métodos que adolecen de defectos”, dijo Nick Lindsay, director de periódicos de MIT Press, al portal de noticias StatNews. La nueva revista utilizará un sistema de inteligencia artificial desarrollado en el Laboratorio Nacional Lawrence Berkeley para clasificar a los preprints por disciplina y grado de novedad.

Republicar