Las megarrevistas científicas

Por Francisco R. Villatoro, el 14 septiembre, 2021. Categoría(s): Bibliometría • Ciencia • Factor de impacto (Impact factor) • Noticias • Peer Review (Revisión por pares) • Science ✎ 7

Me ha llamado la atención un tuit del ciberbibliometrista Isidro F. Aguillo (@isidroaguillo) con el listado de las 20 mayores megarrevistas; su tuit destaca que hay 8 de la editorial MDPI. Pero me ha sorprendido que lidere el listado una «revista virtual» SSRN Electronic Journal, con 39 238 artículos científicos «publicados» en el año 2020. En rigor no es una revista científica y no debería estar en este listado (cuya fuente es la web Scilit). No sé si sabes que SSRN (Social Science Research Network) es un repositorio de preprints (manuscritos publicados sin revisión por pares), similar a arXiv; SSRN se fundó en 1994 y fue comprado por Elsevier en 2016. La web Scilit (creada por la editorial MDPI) recopila información bibliométrica sobre artículos, revistas, editoriales, etc.

En el año 2020 la mayor megarrevista fue Scientific Reports (Springer Nature) con 22 437 artículos publicados, con revisión por pares (aunque laxa) y con un índice de impacto de 4.38 (en el último JCR con datos de 2020); le siguen IEEE Access (IEEE) con 17 878 y 3.37, y PLoS ONE (PLoS) con 16 503 y 3.24. Si SSRN Electronic Journal fuera una revista científica fetén entonces ostentaría el récord entre todas las megarrevistas; como no lo es, el récord lo sigue teniendo PLoS ONE en 2013 con 32 893 artículos publicados en un año. Scientific Reports está lejos de alcanzarlo y no creo que sea la intención de sus editores el lograrlo; por otro lado, la propia PLoS ONE tiene pocos visos de pretender repetir su hito (como te cuento más abajo).

Ya que estamos en ello, quizás te interese otras curiosidades bibliométricas. La editorial que más artículos ha publicado en 2020 es Elsevier BV (817 064 artículos), seguida de Springer Nature (405 286), Wiley (294 610) y MDPI (163 831). En cuanto a artículos con acceso abierto (open access) en 2020, lidera el ránking MDPI (163 781 artículos), seguida de Elsevier BV (146 979), Springer Nature (143 863) y Wiley (95 454). La editorial que más revistas científicas tiene en 2020 es Springer Nature (3085 revistas), seguida de Elsevier BV (2792), Informa UK Limited (2607) y Wiley (1769); MDPI publica 303 revistas. Si te interesa este tipo de información estadística sobre revistas, te recomiendo seguir la cuenta de Twitter de @IsidroAguillo, y visitar la web Scilit. Por cierto, suelo definir megarrevista como la que publica más de 5000 artículos anuales, sin embargo, la definición estándar suele incluir ciertos adjetivos negativos sobre sus prácticas editoriales (megajournal, wikipedia); más información en Alexandre López-Borrull, «Evolución de repositorios temáticos y megarrevistas: visión 2018», Anuario ThinkEPI 12: 316-320 (2018), doi: https://doi.org/10.3145/thinkepi.2018.47.

Fuente: https://www.scilit.net/journal/440374 y https://www.scilit.net/journal/32605.

El listado de megarrevistas publicado por @isidroaguillo en Twitter muestra las primeras 20 en el año 2020. El número de megarrevistas ha crecido mucho en los últimos dos años: 29 revistas en 2020 y 27 revistas en 2019 publicaron más de 5000 artículos anuales, mientras que fueron 16, 18, 16, 17, 17, 13, 15, 13 y 16 entre los años 2018 y 2010. Una de las causas ha sido la política de crecimiento de la editorial MDPI, que lleva un tiempo intentado transformar en megarrevistas a muchas de sus revistas (con claro ánimo de lucro). Quizás ya sabes que la editorial MDPI (Multidisciplinary Digital Publishing Institute), creada por Shu-Kun Lin, estuvo en la lista de Beall de editoriales depredadoras en el año 2014, pero salió en 2015 tras una apelación (de hecho, fue una de las causas de que la lista de Beall fuera clausurada en 2017). MDPI está considerada una «máquina de hacer dinero» donde la cantidad prima sobre la calidad. MDPI ya tiene cuatro de las diez primeras megarrevistas, ¿llegará algún día en el que tenga más de seis? Tiempo al tiempo.

Fuente: https://www.scilit.net/journal/2895405 y https://www.scilit.net/journal/242073.

Los editores de las megarrevistas con índice de impacto tienen que ajustar su número de artículos publicados al año si quieren maximizar dicho índice bibliométrico. Publicar muchos artículos incrementa el número total de citas que reciben (que está dominado por pocos artículos muy citados, pero que son difíciles de identificar tras el peer review). Pero como el número de artículos se encuentra en el denominador de la fórmula del índice de impacto, si publican muchos artículos poco o nada citados acabarán penalizando el índice de impacto. La gestión editorial para maximizar el número de artículos (y con ellos los beneficios económicos) es la seña de identidad de las megarrevistas que publican en open access; pero para atraer a los científicos es necesario que el índice de impacto sea el más alto posible.

La revista PLoS ONE, que solo publica artículos open access, entró en el JCR el año 2009 y alcanzó su máximo índice de impacto el año siguiente con 4.441 (JCR 2010); desde entonces empezó a decaer, conforme crecía en número de artículos. Los editores tomaron una decisión, reducir el número de artículos publicados para compensar dicha bajada (el máximo número se alcanzó en 2013, un número que duplica los artículos publicados en 2020). Este cambio en la política editorial tuvo su primer resultado con la parada de la caída del índice de impacto, que se estabilizó en 2016; no se ha logrado que empiece a subir hasta el último año (JCR 2020). Habrá que esperar unos años para confirmar que el número óptimo de artículos publicados al año para PLoS ONE es de unos 16 500 (como en los años 2018 y 2019).

Si quieres leer más sobre megarrevistas en este blog te recomiendo «Scientific Reports ya es la mayor megarrevista científica superando a PLoS ONE», LCMF, 19 feb 2018; «Scientific Reports camino de destronar a PLoS ONE por tamaño», LCMF, 28 ago 2016; «Los beneficios de PLoS y la nueva revisión por pares en la revista PLoS ONE», LCMF, 20 nov 2013; y, por supuesto, «El editor de Scientific Reports elimina la imagen de Trump en las heces de un babuino», LCMF, 30 dic 2018.



7 Comentarios

  1. Si en todo este análisis cambias «megarevistas» por «revistas» todo el argumento se sostiene. No es un problema de las revistas, es un problema del sistema científico. Si damos por bueno que las citas son un proxy de la calidad media (asumiendo el IF, o mejor el SJR o el Eigenvector centrality, o el que sea), no veo ningún argumento para decir que dos revistascon dos indicadores iguales, tienen una calidad media diferente, sean o no revistas grandes. El argumento de que en las megarevistas el IF lo sostienen muy pocos artículos no se sostiene, porque en las revistas de menor tirada es también así. La distribución de citas en artículos es heavy-tailed en todo tipo de revistas.
    Me llama la atención que no menciones Nature Communications, que está en la lista …. y que cobra en APC más de 4500€ por artículo (hasta hace nada 9000€). Es verdad que MDPI busca dinero, pero Springer Nature lo mismo o más. Es una vergüenza la discriminación de precios que aplican por impacto científico. No se cree absolutamente nadie que los costes de edición de Scientific Reports y Nature Communications sean diferentes.

    1. Pelau, hay más de 180 explicaciones de la señal de Xenon1T y todas «podrían ser importantes» o no (ya que la explicación más parsimoniosa es que se ha estimado mal el fondo de sucesos en el borde de la región explorada, donde se observa la señal). La idea de que una explicación de la (aparente) señal de Xenon1T es un campo de tipo camaleón que también explica la energía oscura es muy especulativa y creo que tiene pocos visos de ser relevante (por eso se publica en PRD y no en PRL). Pero espero estar equivocado.

  2. No sé cómo se define «revisión laxa» ni cómo puede haber datos para saberlo cuando las revisiones son confidenciales. Lo único que veo en mi experiencia de tamaño muestral n=1 es que he hecho revisiones negativas para revistas de prestigio y, no solo he sido el único revisor que ha escrito más de tres líneas, sino que el editor ha ignorado mi opinión.

    1. M. Alejandro, una cosa es el tipo de revisión que recomienda una revista a los revisores de sus artículos y otra cosa es que los revisores siempre revisen igual para cualquier revista, sin molestarse en leer las instrucciones para revisores de dicha revista. Te recomiendo comparar las instrucciones para revisores de PLoS ONE y PLoS Biology para entender lo que se entiende por revisión laxa.

      1. Perdona, ¿estas dos entre sí?, o ¿estas dos con las demás? Lo único que me parece no estándar es el plazo de 10 días, pero lo ponen tanto PLoS ONE como PLoS Biology.
        Gracias por tu respuesta.
        M.

Deja un comentario