¿Corrompe el factor de impacto a los jóvenes científicos?

Por Francisco R. Villatoro, el 28 marzo, 2013. Categoría(s): Bibliometría • Ciencia • Peer Review (Revisión por pares) • Política • Science ✎ 9

Dibujo20130328 high impact paper vs low impact paper - cartoon

Hoy en día, un joven científico es evaluado en función del factor impacto de las revistas en las que publica y del número de citas de sus propios artículos. La calidad de su producción científica no se mide de ninguna otra forma. Por ello, muchos jóvenes científicos toman decisiones clave en su carrera académica en función del factor de impacto; decisiones tan importantes como en qué tema trabajar, en qué revista publicar y qué puestos académicos solicitar. La dependencia excesiva en el factor de impacto es perniciosa para los jóvenes, que son corrompidos por algo ajeno a la producción científica de calidad. Nos lo contaron Eve Marder, Helmut Kettenmann, Sten Grillner, «Impacting our young,» PNAS 107: 21233, Dec. 14, 2010.

Todo el mundo sabe, pero muchos olvidan, que el factor de impacto se inventó para ayudar a los bibliotecarios a decidir a qué revistas suscribirse. El factor de impacto da una idea aproximada de la influencia que tiene una revista científica en su campo. Utilizarlo para evaluar un individuo, un departamento, o incluso una institución es un abuso (como está demostrado en múltiples estudios). Como pasa con muchos asuntos pseudocientíficos, todo el mundo recuerda cuando funciona bien, pero se olvida muy fácil cuando falla de forma garrafal (y lo hace más a menudo de lo que a muchos les gustaría). Usarlo para evaluar a los científicos (jóvenes) no tiene ningún sentido, más allá del ahorro en costes (pues la evaluación la puede hacer una máquina en lugar de un par). 

La actividad científica se entronca en la creación y la difusión de nuevos conocimientos. La revisión por pares debe cuestionar si un trabajo se ha realizado con rigor, aplicando los controles apropiados y un análisis estadístico correcto, si los datos y el texto son claros y suficientes para la replicación de los resultados, y si los argumentos expuestos tienen sentido lógico. Más aún, los revisores también ponen hincapié en la importancia potencial y en la novedad de la contribución. Como es de esperar, estos factores son los más relevantes para la aceptación del artículo en las revistas de alto factor de impacto. Pero la novedad es una navaja de doble filo, pues a veces se opone a la importancia; un resultado inesperado suele tener consecuencias difíciles de predecir. Muchas veces es un error premiar a los investigadores jóvenes en función de las novedades que se cruzan (por casualidad) en su carrera científica. Más aún, puede ser un grave error penalizar a los que tienen un proyecto robusto, de mayor importancia y de mayor impacto global, pero carente de novedades a corto plazo. La ciencia de calidad no debería basarse en «burros que han tocado la flauta.»

La hipocresía inherente a la elección del factor de impacto como única herramienta para medir la calidad científica socava los ideales que subyacen al avance científico. Muchos jóvenes brillantes y creativos se desilusionan y abandonan su carrera científica al ver que otros jóvenes, por pura suerte, copan los pocos puestos académicos disponibles. Hacer demasiado énfasis en las publicaciones en revistas de alto factor de impacto puede ser una receta desastrosa para el futuro de muchos jóvenes.

¿Existe alguna solución? Lo ideal sería reemplazar el factor de impacto como único indicador de excelencia y utilizar la evaluación por pares siempre que sea posible. Más aún, a ser posible, que dicha evaluación incluya científicos de prestigio internacional. Se requiere más tiempo y más esfuerzo, pero todos los científicos (senior) en activo deberían estar dispuestos a participar en estas evaluaciones porque esta es la única manera de liberar a los jóvenes científicos de la tiranía del factor de impacto.



9 Comentarios

  1. Pues sí, pero no tengo muy claro a qué evaluaciones te refieres ¿a las españolas o en general? Se supone que esto de que «todos los científicos (senior) en activo» participen en estas evaluaciones es lo que se hace con las oposiciones a titular y ya sabemos todos lo que pasa ahí… En cuanto a las de contratados, las evaluaciones las prepara una comisión y se pueden fijar en lo que consideren, no solo en el factor de impacto. En fin, si te refieres a los contratos en el extranjero o a los postdocs, pues ya es otro tema, pero cada cual lo hace de una manera distinta y no parece que sea tan importante el factor de impacto. Creo que la disfunción en este asunto es que se piense más en publicar que en investigar de verdad. Uno no dice «he descubierto tal cosa», sino más bien «he publicado un Nature». Y no es lo mismo o no tiene porqué serlo.

    1. No, Sirlion18, ¿por qué lo dices? Quizás lo dices por la fecha, 2010, del artículo de PNAS. Un tuit (no recuerdo de quien) me hizo volver a leer dicho artículo hace unos días…

  2. Magnífico país este que no tiene investigadores sino auténticos expertos en la ingeniería del paper. Ahora, que la fiabilidad de la verificación por pares está muy lejos de ser aceptable, que mira que hay por ahí «grandes expertos» que hace milenios que no se acercan a un laboratorio.

    1. Paseante, el artículo de PNAS del que me hago eco se refiere sobre todo a EEUU (y en general a todos los países de la OCDE); en ningún momento se menciona a España.

  3. «Muchos jóvenes brillantes y creativos se desilusionan y abandonan su carrera científica al ver que otros jóvenes, por pura suerte, copan los pocos puestos académicos disponibles.»

    No estoy de acuerdo. No enteramente. Ambos valen, pero los primeros ya lo han demostrado. Los del segundo tipo han de trabajar más pero no se puede decir que una carrera es robusta hasta que consiga un gran logro. Mi conclusión es que se revisen las posiciones de los jóvenes que acceden a un puesto por ciertos artículos en revistas de impacto.

Deja un comentario