Las revistas que negocian su índice de impacto

Por Francisco R. Villatoro, el 15 julio, 2020. Categoría(s): Bibliometría • Ciencia • Historia • Science ✎ 6

El índice de impacto de una revista se calcula usando sus artículos «citables». Los editores de las revistas (o sus editoriales) negocian con Clarivate Analytics qué artículos deben ser considerados «citables» y cuáles no. Como puedes imaginar, en general, estas negociaciones tienen como objetivo que suba el índice de impacto de la revista. Dado que la fórmula del índice de impacto es una fracción con el número de artículos «citables» en su denominador, si este se reduce puede subir su valor, eso sí, siempre que no se toque el número de citas a artículos de la revista en su numerador. Revistas como Nature y Science publican muchos artículos que no son «citables» (más del 40 % del total). La negociación con Clarivate Analytics es en gran parte responsable de su subida sostenida de índice de impacto en las últimas décadas.

He mencionado de pasada este tema en varias ocasiones, así que creo que merece la pena dedicarle unas líneas. Aprovecho que nos lo recuerda Björn Brembs en un tuit @brembs, que recupera una pieza de su blog, «Just How Widespread Are Impact Factor Negotiations?» BBB, 08 Jan 2016, al hilo de una pieza previa de Steve Royle, «The Great Curve II: Citation distributions and reverse engineering the JIF,» Quantixed, 05 Jan 2016 (las figuras que presento están extraídas de dicha pieza). También cito a Eugene Garfield, «Journal impact factor: a brief review,» CMAJ 161: 979-980 (19 Oct 1999), PubMed PMID: 10551195.

Supongo que me dirás que es normal que se diferencie entre artículos «citables» y «no citables» en revistas que se venden en quioscos, como Nature, o dirigidas a la venta de suscripciones individuales entre el público científico general, como Science y Cell; como sabes son revistas que promocionan de forma agresiva sus marcas, publicando noticias y otras piezas que no se pueden considerar artículos científicos. Lo que no sé si sabes es que todos esos artículos (incluidos los «no citables») están indexados en el Web of Science; así se puede determinar la diferencia entre el número de los «citables» y «no citables». Esta figura de Steve Royle usa datos del cálculo del índice de impacto para el JCR 2014 (artículos publicados en 2012 y 2013 citados por artículos publicados en 2014); como puedes ver ~40 % de los artículos de Nature, ~45 % de los de Science  y ~25 % de los de Cell no contaron para su índice de impacto de 2014. Los números para el JCR 2020 (que usa citas de 2019 a artículos de 2017 y 2018) deben ser similares.

El índice de impacto (también llamado con el anglicismo factor de impacto) fue inventado por Eugene Garfield en 1955, quien ese año creó una empresa llamada DocuMation Inc. para explotar su invento. Para que el negocio floreciera, en 1960 se alió con Irving H. Sher y le cambió el nombre a la empresa, el pomposo Institute for Scientific Information (ISI); que no te engañe el nombre, no era un instituto de investigación en bibliometría, sino una empresa que calculaba los índices de impacto y los publicaba como negocio en el llamado Science Citation Index (SCI); más tarde nació el Social Sciences Citation Index (SSCI). En aquella época la decisión de qué artículos incluir o excluir del índice del impacto de una revista era tomada por Garfield y sus empleados. Como supongo que sabrás el ISI fue comprado por el gigante editorial Thomson Reuters en 2008, que decidió evitar posibles problemas por oligopolio cambiándole de nombre de nuevo, así que se llama Clarivate Analytics desde 2018.

La idea de que una revista tiene que negociar qué artículos son «citables» apareció publicada en H. F. Moed, Th. N. Van Leeuwen, «Improving the accuracy of institute for scientific information’s journal impact factors,» Journal of the American Society for Information Science 46: 461-467 (1995), doi: https://doi.org/10.1002/(SICI)1097-4571(199507)46:6<461::AID-ASI5>3.0.CO;2-G. Los autores proponían que el índice de impacto de revistas como Nature y Science estaba subestimado porque no tenía en cuenta sus publicaciones «no citables», como los editoriales y las cartas al editor. Como no podía ser de otra forma, la propuesta también la publicaron como carta al editor en Nature el año siguiente (H. F. Moed, Th. N. van Leeuwen, «Impact factors can mislead,» Nature 381: 186 (1996), doi: https://doi.org/10.1038/381186a0). Siendo Nature la primera interesada en este tipo de negociaciones, aprovechó todas las oportunidades posibles para hacerse eco de la idea (J. Gowrishankar, P. Divakar , «Sprucing up one’s impact factor,» Nature 401: 321-322 (1999), doi: https://doi.org/10.1038/43768). Y un negocio rentable como el del ISI no podía dejar pasar esta oportunidad de incrementar sus beneficios (la negociación con las editoriales no es gratuita para estas).

La negociación se nos vende como imprescindible en las revistas que cambian a menudo su formato gráfico y su división en secciones; la cuestión de si los artículos de una nueva sección deben ser considerados «citables» o «no citables» es de carácter editorial; por supuesto, hace treinta años la decisión hubiera sido tomada por Garfield (o sus empleados) sin injerencia externa, pero hoy en día se negocia. Por ejemplo, en la revista Nature ha habido secciones con estos nombres (que yo recuerde ahora, seguro que me dejo muchas en el tintero): Editorial, Correspondence, Scientific Correspondence, Matters Arising, Miscellany, Research Highlights, News, News & Views, Opinion, Letters, Articles, y Review Articles. La negociación editorial con Clarivate Analytics tiene por objetivo determinar cuáles de los artículos publicados en dichas secciones son «citables» y cuáles no lo son. Así la decisión del editor de crear una nueva sección o de eliminar una ya existente muchas veces viene condicionada por su impacto esperado en la futura negociación; algo que suelo llamar «ingeniería» del índice de impacto.

Las revistas y sus editores no tienen por costumbre hablar en público de estas negociaciones. A pesar de ello hay múltiples indicios de que estas prácticas son habituales; por ejemplo, la editorial Elsevier, tras adquirir la revista Current Biology, negoció con el ISI para incrementar su índice de impacto, logrando un aumento del ~40 %. Una excepción es el editor de revista PLoS Medicine, que hizo público su negociación en 2006 en un editorial (The PLoS Medicine Editors, «The Impact Factor Game,» PLoS Medicine (06 Jun 2006), doi: https://doi.org/10.1371/journal.pmed.0030291); según cuenta, el índice de impacto de su revista podía fluctuar entre menos de 3 y hasta 11 según qué artículos se consideraran «citables»; el editor logró llegar a un acuerdo final que alcanzó un índice de impacto de 8.4. Lo habitual es que estas negociaciones se encubran como peticiones de corrección de errores, así ambas partes parece que le están haciendo el bien a la comunidad científica en lugar de a sí mismas.

En resumen, hay fuertes indicios de que estas negociaciones para hacer «ingeniería» del índice de impacto ocurren de forma continua todos los años. Aunque ninguna de las partes están interesadas en que se hagan públicos los detalles, un análisis bibliométrico puede detectar anomalías en los índices de impacto que apuntan a estas negociaciones como origen razonable. Muchas veces el beneficio propio conduce a un beneficio colectivo. Quizás estas prácticas beneficien a la comunidad científica; o quizás no. Lo que está claro es que benefician a las editoriales y a Clarivate Analytics. La producción científica es su negocio. ¿Consideras que estas prácticas empresariales son reprobables?



6 Comentarios

  1. Madre mía, lo desconocía por completo. Si ya de por sí un índice bibliométrico de una revista no es un buen indicador de la calidad de un artículo, si sumas esto que roza el fraude…

    Gracias por el artículo.

  2. Es un negocio entre empresas privadas, que hagan lo que quieran. Lo absurdo es que la comunidad científica o académica se base, en parte, en esas métricas para decidir quién es «buen investigador» o a quién dejar fuera del sistema.

  3. Claro que lo son. Ya la idea de que se pueda «medir» el valor de un artículo por el número de veces que se cita es algo absurda. Si aún encima las editoriales negocian como incrementar el índice de impacto de sus revistas, entonces demuestra que el índice sólo sirve para perder el tiempo y lograr que la ciencia se centre en un número falso, el propio factor de impacto y no en lo que debería centrarse, la búsqueda y el incremento del conocimiento.

    1. Vaya trama y vaya engaño
      Y los jóvenes investigadores, y no tan jóvenes, peleando para publicar en revistas de «alto impacto»
      Los baremos científicos deben de cambiar!!!!

  4. Pero si hoy día puede publicar cualquiera, repito, CUALQUIERA puede publicar en open acces si pagas los 6000 mortadelos que te piden. Así de claro. Yo tengo dos licenciaturas y dos doctorados. ¿Y que? Un Ph.D. en Cornell vale mas que los doctorados que hagas en España. Si hasta un menda como pedrolo fraudillo tiene una tesis semicopiada, que se la hizo Miguel Sebastian…
    http://drlopezcorbalan.blogspot.com/ ( cuña pubicitaria)

  5. Esto es lamentable. Si ya el índice de impacto es una factor que correlaciona bastante mal con la calidad, si encima hay una negociación al respecto que no es transparente, apaga y vámonos. Estas cosas, para funcionar, tienen que ser 100% transparentes, si no la credibilidad se derrumba.
    Yo no considero a Science y Nature como revistas científicas, sino como una especie de ‘escaparate guay’, pero esta es una pedrada mía. Lo que debería hacerse (en mi opinión), es separar los papers sujetos a revisión por pares de los que no. Sólo los primeros deben contar en el IF (y todos ellos), ya que el resto NO son artículos científicos.

    Un saludo.

Deja un comentario