Sobre Nature News’s “Free journal-ranking tool enters citation market”

Por Francisco R. Villatoro, el 3 enero, 2008. Categoría(s): Bibliometría • General • Índice-h de Hirsch

Medir la calidad científica de un artículo de un investigador es importante pero a la vez difícil. Una de las maneras más sencillas es medir la calidad de la revista en la que ha sido publicado. Pero medir la calidad de una revista, tampoco es fácil. Eugene Garfield introdujo el índice de impacto en 1955 en un artículo en la prestigiosa revista Science y acabó generando una empresa comercial Thomson Scientific que generó en 2006 más de 6.600 millones de dólares (8% más que el año anterior) y que emplea a 32.000 personas. Desafortunadamente hay que pagar. En las universidades españolas, la Fundación Española de Ciencia y Tecnología (creada en durante el gobierno de Aznar) se encarga de pagar la “dolorosa”.

El desarrollo de bases de datos públicas (al menos hasta el momento) que compitan con dicha empresa comercial se me antoja como muy interesante y conveniente. Pero dichas iniciativas requieren el amparo de grandes compañías comerciales con objeto de que se les otorge el calificativo de “prestigiosas”.

Investigadores españoles de varias universidades, entre ellas la de Granada, han desarrollado un nuevo sistema de medición de la calidad de revistas basado en el algoritmo PageRank de (y patentado por) Google, el SJR (SCImago journal rank). Como todos los índices de calidad, tiene sus ventajas y sus inconvenientes. Las revistas científicas que aparecen, la clasificación de categorías científicas, y muchos otros detalles difieren del JCR (Journal of Citation Reports, link español), de hecho, el SJR se basa en los datos de Scopus, de la gran editorial Elsevier. He encontrado algunas dificultades. Hay resultados muy extraños: el “Journal of the ACM” el 37 de su categoría (realmente chocante para la revista de absoluta referencia, mínimo 3 años para que te publiquen), aunqe si ordenamos por su índice H, que es 40 es la 8 de 113 (algo más razonable). O la revista “Fuzzy Sets & Systems” por encima de “IEEE Intelligent Systems”; quizás se observa el “sesgo” Elsevier, quien ha pagado al grupo de investigación su trabajo. En mi opinión, como utilizan la BBDD de revistas Scopus, que ha incluido a las revistas de IEEE sólo recientemente (creo que a partir de 2002), los datos están “Elsevier” sesgados, las revistas de esta editorial están completas, pero las del resto de editoriales “importantes” no “necesariamente” lo están. Sin embargo, seguramente corregirán este “defecto” en un futuro no muy lejano. También resulta curioso que “Computer Physics Communications (CPC)” esté por delante de “Journal of Computational Physics (JCP)”, ambas de Elsevier.Sin embargo, me gusta que aparezca el índice de Hirsch (índice H), que los bibliometristas han demostrado que no es adecuado para medir la calidad investigadora de individuos, parece que no es “malo” midiendo la calidad de grupos, instituciones y revistas. Si ordenamos los resultados de SCImago por el índice H en lugar del SJR los resultados son mucho más “representativos” (en mi opinión personal, claro). Por ejemplo, en 2006, JCP tiene 66 y CPC sólo 48.

Aunque SCImago acaba de comenzar (creo que está en versión “beta”) y actualmente contiene muchos “fallos”, éstos se corregirán en un futuro no muy lejano y acabará conviertiéndose en uno de los estándars de calidad. De hecho, a mí me conviene que lo utilicen, el JCR sólo contiene unas 9000 revistas, y Scopus alcanza las 15000, incluyendo algunas revistas No-JCR en las que he publicado.

NOTA: a los interesados en surfear la web sobre estos temas, no olvidar consultar el Eigenfactor de nuestro revista favorita. También os recomiendo que instaléis el programa Publish or Perish y calculéis vuestros índices de calidad (basado en Google Scholar).



Deja un comentario