miércoles, 27 de julio de 2016

Publicar un artículo en una revista científica: el peer-review

Uno no pierde su capacidad de asombro ante los hechos y circunstancias que nos rodean a diario, aunque a veces nos hacen de dudar de nuestra capacidad de comprensión. Siempre se ha descrito el proceso de revisión por pares como un método riguroso para validar los trabajos de investigación como pre-requisito para su publicación, evaluado por expertos, reconocido por la comunidad científica, no exento de limitaciones y también, duramente criticado. Hasta aquí todo en orden. Cuando le toca a uno parece que la cosa cambia, sobre todo cuando las evaluaciones son sorprendentes, dignas igualmente de ser publicadas para mayor gloria de los evaluadores anónimos. Es un deber reconocer el encomiable trabajo realizado por editores para sostener una revista científica, que nos sirva a todos de aprendizaje y divulgar el conocimiento. Se trata de un trabajo silencioso y con mucha dedicación, el de los editores y sus equipos profesionales. Como todo, tanto editores como evaluadores están sujetos a crítica, y no por ello arbitraria, antes al contrario, constructiva. Hay casos, los menos, donde los evaluadores son doctorandos (no encuentran a otros), en otros son personal de confianza del editor con experiencia profesional muy específica pero que se sienten obligados a colaborar, y hay quienes aceptan el encargo a regañadientes. Es conocida la dificultad en encontrar a profesionales que colaboren (sobre todo gratis) en el papel de revisores, y han sido justamente criticados por querer tener sólo el beneficio de publicar pero sin colaborar como evaluadores en las mismas revistas que les reconocen profesionalmente.

Como quiera que sea,  lo que a nadie le gusta es que después de un arduo trabajo de investigación, que lleva años de estudio, te cuenten una milonga, sobre todo por quienes han investigado en un área ajena a la propia, e incluso sus conocimientos de metodología de la investigación se ciñen a campos muy específicos, en el mejor de los casos. Son habituales respuestas muy protocolarias como "la muestra es pequeña" incluso cuando el estudio no está diseñado para inferencia estadística. Si no sigues un ritual estadístico le resta valor al trabajo aunque no aportes nada nuevo con la prueba estadística (frente al enfoque decimonónico de la investigación, los modelos multidimensionales han ganado protagonismo: Big data). Se confunde las características de la unidad de análisis con el tamaño muestral (no es difícil imaginar que estudiar enfermedades raras en un área geográfica, conduce a muestras pequeñas). Por contra, ¿qué garantiza una muestra grande?. ¿En qué casos es directamente proporcional el tamaño de una muestra a la varianza? Recordemos que hay revistas de prestigio que han abolido el valor p  (probabilidad de haber obtenido ciertos datos en el supuesto de que sea cierta determinada
hipótesis). Es decir, sin opción a un uso correcto (o peor) del valor p. Otros te exigen una "pregunta de investigación" por imperativo, al margen del tipo de estudio. Hay quienes sin pudor, te dicen lo que tienes que concluir con tu trabajo y otros se atreven hasta con el número de conclusiones (!más científico, por favor!). También es fácil encontrar contradicciones entre las normas editoriales y las normas internacionales a las que dicen acogerse (ISO 690, Vancouver, APA...). Y un largo sinfín de juicios de valor, que nos sorprenden por el hecho de tener en común, el que la respuesta del evaluador casi siempre no está motivada. Es decir, libre de voluntarismos y dotada de algún criterio fundamentado, al menos con fines pedagógicos. Es demasiado frecuente en los evaluadores identificar frases categóricas, ausencia de explicaciones, falta de referencias bibliográficas, retroalimentación negativa (quizás no tienen tiempo), subestimar al que publica (que puede contar con más experiencia investigadora y profesional que el propio evaluador), etc. Es cierto que hay revistas que recomiendan que el informe de evaluación por pares debe prestar apoyo pedagógico a los investigadores y, por supuesto, no expresarlo en términos ofensivos. La realidad es que la pedagogía brilla por su ausencia y los editores deberían tomar nota de que las valoraciones de los revisores no deben estar exentas de motivación, es decir, tienen la obligación de al menos ofrecer explicaciones de lo que dicen y, voy más allá, tendrían que justificar sus afirmaciones. Es decir, el investigador quiere aprender y, para ello, necesita comprender las razones de las críticas a su trabajo. Las críticas fundamentadas siempre son bienvenidas, como parte esencial del proceso científico. Por ello, si un profesional asume el compromiso de ejercer como revisor, que lo haga en toda su extensión. El editor tiene la responsabilidad de tomar la decisión de publicar o no, y normalmente acepta el juicio del revisor sin reparos, y sin derecho a réplica del investigador, algo que me parece anómalo. La consideración de la "revisión por pares" como un arbitraje no se ajusta a la realidad. En un verdadero arbitraje los autores tienen derecho a réplica.  Detrás de todas estas aparentes contradicciones, obviamente, hay muchos intereses. No sabría estimar el grado de guerra soterrada que hay en el terreno de la investigación, sobre todo en períodos de recortes extremos. Hay quienes no quieren publicitar a otros investigadores que le puedan sustraer fondos de financiación (incluso prestigio profesional), hay cierta politización en algunas editoriales (basta con mirar a los Congresos de sociedades científicas, donde siempre van los mismos políticos y del mismo partido), incluso quienes te roban las ideas para publicar.  En fin, hay personas que parecen ser lo que dicen ser, pero luego no lo son, como en la película "sopa de ganso" de los Hermanos Marx.