Los artículos científicos rechazados en una revista acaban publicados en otra

Por Francisco R. Villatoro, el 7 enero, 2017. Categoría(s): Bibliometría • Ciencia • Noticias • Peer Review (Revisión por pares) • Science ✎ 7

dibujo20170107-papers-published-after-rejection-clinical-otolaryngology

Muchas revistas han publicado estudios sobre la vida de los artículos que han rechazado. El resultado indica que la mayoría acaba publicado en otra revista. Muchas veces en revistas de menor índice de impacto, aunque hay contadas excepciones. Muchos científicos quieren amortizar el trabajo dedicado a escribir un artículo publicándolo sea como sea.

Por ejemplo, un reciente estudio de la revista Clinical Otolaryngology sobre 917 manuscritos rechazados entre 2011 y 2013 (entre ellos 18 sin pasar por revisores) ha encontrado que el 55,7% han sido publicados en otras revistas (antes de 2015). El retraso medio en su publicación es de 15,1 meses (con desviación típica de 8,8 meses). De los 511 artículos publicados, solo 41 lo han sido en revistas de mayor impacto. Más aún, 60 se han publicado en revistas que no aparecen en PubMed, pero sí en Google Scholar.

El nuevo artículo es C H Earnshaw, C Edwin, …, S C Leong, «An Analysis of the Fate of 917 Manuscripts Rejected from Clinical Otolaryngology,» Clinical Otolaryngology (29 Dec 2016), doi: 10.1111/coa.12820; me he enterado gracias a «What Happens to Rejected Papers?» Neuroskeptic, 03 Jan 2017.

Por cierto, la mayoría de los expertos en bibliometría recomiendan enviar a otra revista todos los artículos rechazados, incluyendo los cambios sugeridos por los revisores, si los hubiese (por ejemplo, Stephen K. Donovan, «The Importance of Resubmitting Rejected Papers,» Journal of Scholarly Publishing 38: 151-155 (2007), doi: 10.3138/W706-5884-KG84-J282). También lo recomiendan los propios científicos (John P. A. Ioannidis, Athina Tatsioni, Fotini B. Karassa, «Who is afraid of reviewers’ comments? Or, why anything can be published and anything can be cited,» European Journal of Clinical Investigation 40: 285–287 (2010), doi: 10.1111/j.1365-2362.2010.02272.x).

dibujo20170107-fate-644-papers-rejected-cardiovascular-research-1995-1996

Muchos otros estudios han obtenido resultados similares. Por ejemplo, entre 644 manuscritos rechazados en la revista Cardiovascular Research entre 1995 y 1996, se encontró que 301 (47%) se habían publicado entre 1996 y 1998 en revistas indexadas en la base de datos Ovid (si hoy se buscaran en Google Scholar seguro que se supera el 50%). Por cierto, solo 7 de los 301 artículos se publicaron en revistas de mayor índice de impacto. Más detalles en Tobias Opthof, Fred Furstner, …, Ruben Coronel, «Regrets or no regrets? No regrets! The fate of rejected manuscripts You have access,» Cardiovascular Research 45 (1 Jan 2000), doi: 10.1016/S0008-6363(99)00339-9.

dibujo20170107-citations-papers-in-megajournals

Las megarrevistas científicas (megajournals), como PLoS ONE, Scientific Reports, etc., publican decenas de miles de artículos al año (en 2016, PLoS ONE ha publicado unos 25000 artículos y Scientific Reports, a la saga, unos 21000). Su tasa de aceptación es muy alta, entre el 51% y el 69% de todos los artículos que reciben. Las revistas más prestigiosas aceptan menos del 20% de los artículos (por ejemplo, Nature acepta menos del 7%, aunque redirige muchos artículos rechazados a otras revistas del NPG). Se suele decir que la revisión por pares de las megarrevistas es muy laxa (solo se exige una metodología apropiada, olvidando conceptos como relevancia o impacto potencial). Sin embargo, esta tasa de aceptación no es alarmante si más del 50% de todos los artículos rechazados en revistas con revisión por pares acaban publicados en otras revistas.

El prestigio de una revista está correlacionado con su índice de impacto. Este depende de unos pocos artículos que son muy citados; siendo la inmensa mayoría de sus artículos poco citados, e incluso nunca citados. ¿Influye que la revisión por pares sea laxa en la distribución de citas a artículos? Los estudios realizados hasta ahora parecen indicar que no influye (o no lo hace de forma apreciable). Eso sí, en las evaluaciones de científicos está mal visto que todas sus publicaciones estén en megarrevistas; se recomienda combinar artículos en revistas de alto impacto (aunque sean más lentas) y en megarrevistas (porque son mucho más rápidas). Nunca hay que olvidar que a los científicos los evalúan otros científicos. La figura y más información en Bo-Christer Björk, Paul Catani, «Peer review in megajournals compared with traditional scholarly journals: Does it make a difference?» Learned Publishing 29: 9–12 (01 Jan 2016), doi: 10.1002/leap.1007.

Por cierto, según el Web of Science, solo teniendo en cuenta los artículos publicados en el año 2016, a día de hoy (07 de enero de 2017), el índice-h de la revista Nature es de 30, el de Science es de 28, el de PNAS es de 16, el de Scientific Reports es de 13 y el de PLoS ONE es de 8.



7 Comentarios

  1. En ocasiones no queda otra después de tanto tiempo de trabajo. De todas formas esto no es necesariamente malo, uno de los problemas de la búsqueda de protagonismo es que se rechazan artículos por falta de interés en un mercado ya saturado.

    En mi profesión eso queda muy de manifiesto en los artículos clásicos, son los más citados, pero la gente que los cita no tiene en cuenta que muchos han sido realizados con una muestra N=10 en perros. Más de una vez ha ocurrido que como los estudios transversales salen mucho más rápido, se saturan las revistas con ellos y a los años cuando ya ha perdido interés el tema aparecen los ensayos clínicos y resulta que tienen problemas para publicar, sobretodo porque muchas veces cuando se mejora la metodología, la diferencia entre las variables resulta no ser tanta. Esto lleva a que 10 años después alguien saque una revisión, vea que no hay información fiable sobre el tema y de repente ahora sí que se aceptan los ensayos clínicos en revistas de impacto.

    No hay que olvidar que aunque científicas, no dejan de ser revistas, y como tal se mueven por modas. Uno de los muchos problemas de la tiranía del índice de impacto. Mis mejores artículos están publicados en revistas Q4, porque no estaba de moda y pese a ser el primer ensayo clínico realizado sobre el tema, no lo pude colar en revistas importantes. Sin embargo, los artículos con peor metodología los he podido colar en las 10 primeras, por el mero hecho de que era el primero en describir la técnica.

    No hay que olvidar que el factor de impacto de la revista no dice nada sobre la calidad de un artículo en concreto. De hecho yo pienso que no dice nada sobre el global tampoco, al menos en mi profesión, donde hay un desconocimiento enorme sobre metodología y todavía existe un fuerte abuso del argumento de autoridad.

  2. Hola Francis. Este post es como un secreto a voces, d¿e verdad crees que era necesario hacer estudios para confirmar que cuando se rechaza un artículo en una revista los autores deciden enviarla a otra incluyendo las correcciones sugeridas etc.?. Es posible que respondas que si, que lo importante es cuantificar el hecho. Pues entonces, siguiendo el mismo argumento, la importancia que artículos que no ofrecen novedosos avances etc pero si replican resultados obtenidos con métodos muy correctos (léase las megarrevistas) sean publicados es que la ciencia necesita que los resultados se repliquen. Quizás falta esa mirada de que sin replicar resultados no hay otros avances, pues no se consolidarían los primeros. No estoy justificando con ello las megarrevistas y revisión «laxa» etc. (que ya hemos hablado de ello).
    Otro punto a tener en cuenta… es que la publicación del trabajo en revistas diferentes a las que se envió por primera vez, no es problema solo el «ego» del científico por publicar. Es quizás la necesidad de dar visibilidad a un trabajo de tesis. Puedes imaginar un ejemplo muy cercano a la realidad: la universidad exige 2 artículos de primer autor para una tesis o en su defecto 3 uno de primero y dos de otras posiciones. Y se ha terminado el plazo para leer la tesis (pues ahora hay tiempos) y se termina la beca/financiación. ¿Tú le dirías a tu predoctoral que se queda sin tesis por que su trabajo no ha pasado el standar de una revista X y que enviarlo a otra de revisión laxa es poco ético/científico etc.?. A veces las cosas en ciencia son más humanas y tienen más cosas en cuenta (como el trabajo diario realizado en el lab) que las revistas.
    Y ya metidos en materia, te pregunto ¿qué haces tú cuando tu artículo es rechazado en la revista de primera opción?. ¿Lo metes en el cajón y piensas que ese trabajo no es digno de ser publicado? o te das la oportunidad de mejorarlo y enviarlo a otra revista para dar reconocimiento (en el mejor sentido de la palabra) a tu trabajo hecho concienzudamente?.
    Creo que los artículos que citas arriba son interesantes, pero no se acercan a las causas del fenómeno y lo triste es que son científicos que han pasado y pasan por lo mismo.
    E insisto, como también matizas arriba, un CV basado en megarrevistas es algo que molesta en las evaluaciones, ya que si cojo mi razonamiento de arriba, se trataría de la habilidad de haber replicado resultados conocidos, cosa importante pero no destacable o que marque la diferencia en un CV científico. Una buena mezcla de todo tipo de revistas es más que recomendable, fundamental.
    Saludos

  3. Cualquier otro resultado habría sido sorprendente, teniendo en cuenta que los futuros proyectos, las horas de clase que impartimos, el resultado de las evaluaciones a las que nos sometemos…. depende de donde se publiquen los resultados de nuestros experimentos.
    Hay que tener en cuenta además que el hecho de que un trabajo sea rechazado no lo convierte en mejor o peor desde el punto de vista puramente científico, sólo en que no es adecuado para una determinada revista, algo que depende de la limpieza del resultado, de si es mas o menos esperable, si afecta sólo a un campo concreto de estudio o tiene implicaciones más amplias, si es un tema mas o menos de moda… etc. Es decir de la predicción del «impacto» que tendrá ese artículo y si ese impacto se ajusta al de la revista.

    Cada investigador sabe perfectamente si sus resultados son para una revista de impacto 5 ó 15.
    Suponiendo que yo creo que mi último artículo debería estar en una revista de impacto 5, mi primer intento va a ser en una de impacto 8. Por múltiples razones:
    -Si se publica me reportaría muchos más beneficios, por eso vale la pena intentarlo
    -La valoración siempre es un proceso subjetivo, realizado por revisores que pueden, porque el resultado les resulta atractivo, por afinidad personal (aunque los autores no los conocen, ellos si conocen a los autores), o por lo que sea, decidir que el artículo merece una revista de 8
    -En cualquier caso van a realizar correcciones y aportar comentarios que van a mejorar el trabajo. No es nada extraño enviar un trabajo a una revista, aun sabiendo que las posibilidades de aceptación son bajas, para obtener una revisión crítica realizada por expertos que se va a utilizar en la siguiente revisión.

    Resumiendo, como en una subasta de pescado en lonja, se empieza por arriba y se va bajando hasta que un comprador hace la primera puja y se lo queda….

  4. Nunca se conoce el impacto de un artículo. Tengo idea de que Francisco Mojica no consiguió que le publicaran el paper sobre CRISPR, como tampoco a otro francés que lo intentó poco después.

    Realmente, el encontrar unas series capicúas alrededor de una secuencia en una bacteria, no parecía demasiado interesante…

    Quizá hoy se encuentre entre los cien -lo digo a ojo- artículos mas citados.

  5. Es algo que desconcierta cuando entras al mundo de las publicaciones: En la licenciatura se la pasan diciéndote que repetir experimentos que otros han hecho y comprobar una y otra vez, refinando cada vez más la muestra y los métodos es algo muy importante y necesario para la ciencia. Que estas revisiones de lo establecido muchas veces han hecho avanzar mucho el conocimiento. Lo mismo te dicen los grandes divulgadores y libros de divulgación. Siempre se insiste en la reproducibilidad de los resultados. Luego llegas al posgrado y ves como compañeros intentan publicar su trabajo de 4 años de tesis, con resultados muy buenos, y se los rechazan revista tras revista «porque ya no son relevantes» o » ya no tienen interés cintífico en la actualidad». Todo porque uno o dos años antes alguien sacó un estudio muy similar, aun si fue con una muestra más pequeña. ¿Qué tan ético es que el duro trabajo bien hecho de una persona durante 4 años, se rechace por no ser el primero?¿Confirmar el resultado anterior mejorando la muestra y bajando los errores no es una aportación también? Las revistas deciden que no es merecedor de que los demás lo lean… Siento que eso de poner criterios de impacto es ridículo, por no decir que en cierta forma es discriminatorio con quienes tienen proyectos a largo plazo o no cuentan con recursos para procesar sus datos tan rápido. Publicar a día de hoy es una carrera contra el tiempo. Si no eres el primero tu trabajo deja de valer sin importar si mejora algo o los recursos humanos y económicos invertidos en el. Yo apoyo lo que hacen los megajournals. Si hiciste bien la metodología e interpretaste bien los resultados merece publicarse. Si impacta o no ya lo decidirá la comunidad.

    1. Botswanafire, no te confundas, hay que matizar lo que comentas. «Intentan publicar [y] se rechazan “porque ya no son relevantes” o ” ya no tienen interés cintífico en la actualidad”, todo porque uno o dos años antes alguien sacó un estudio muy similar». Como es obvio, si dos años más tarde escribes el mismo artículo que habrías escrito dos años antes, dicho artículo debe ser rechazado por irrelevante. Este es el gran error de los jóvenes investigadores, que por jóvenes aún no conocen cómo funciona el asunto. En realidad puedes publicar el trabajo sin ningún problema, pero, en revistas de menor impacto, obviamente has perdido la novedad, y dejando claro que tu trabajo aporta algo al anterior, no basta con repetir, hay que aportar algo (por ejemplo, repetir buscando demostrar replicabilidad). Pero tienes que dejarlo muy claro. No basta «repetir» el mismo trabajo dos años más tarde. Siempre hay que aportar algo gracias a esa repetición. En dicho caso siempre se publicará muy, muy fácil. El error de los investigadores jóvenes es ignorar lo que saben los investigadores senior sobre cómo funciona la ciencia. Si a algún compañero le pasa lo que cuentas, que contacte con un investigador senior del área y verás cómo se acaba publicando (y bien) sin problemas (tras ligeros, pero muy relevantes, matices).

  6. Hola FRANCIS interesante conocer como funciona el mundo de la publicaciones de los trabajos de investigación . La mecánica y las exigencias que imponen muchas veces son una barrera que vencer primero.

Deja un comentario