Las revistas con mayor índice de impacto retractan un mayor número de artículos

Por Francisco R. Villatoro, el 18 agosto, 2011. Categoría(s): Bibliometría • Ciencia • Factor de impacto (Impact factor) • Noticias • Science ✎ 4

La revista Infection and Immunity ha publicado el 8 de agosto un estudio que relaciona el índice de impacto y el número de artículos retractados mediante un nuevo índice bibliométrico llamado «índice de retracción.» El estudio concluye que las revistas con mayor índice de impacto tienen un índice de retracción mayor. Según los autores del estudio la razón es que el aliciente de publicar en revistas de alto índice de impacto, con una gran repercusión en la carrera académica de los autores, hace que los autores se arriesguen más a la hora de publicar. El riesgo tiene una contrapartida para los autores, te pueden rechazar el artículo, pero también tiene otra para las revistas, muchos de los artículos aceptados acaban siendo retractados. El índice de retracción de una revista en este artículo se define como el número de retracciones entre 2001 y 2010, multiplicado por mil y dividido entre el número de artículos publicados. Los autores han estudiado 150 revistas internacionales y los resultados más relevantes aparecen en la figura que abre esta entrada. El artículo es Ferric C. Fang, Arturo Casadevall, «Retracted Science and the Retraction Index,» Infect. Immun., published online ahead of print on 8 August 2011 [el artículo es de acceso gratuito]. Para los que no estén duchos en los nombres de las revistas de mayor impacto, les recuerdo que NEJM = New England Journal of Medicine, J. Exp. Med. = Journal of Experimental Medicine, EMBO J. = EMBO Journal, J. Immunol. = Journal of Immunology, e IAI = Infection and Immunity; el resto (Science, Cell, Nature, Lancet y PNAS tienen su nombre completo).



4 Comentarios

  1. Por cierto, ¿qué hace ese tipo de estudio en una revista que se llama Infection and Immunity?

    P.S. No se han devanado los sesos mucho para definir el índice de retracción, juas, juas.

  2. Sinceramente, no me sorprende. Pero creo que no es tanto que los autores se arriesguen más, sino que las revistas, para mantener su nivel de impacto, deben publicar estudios lo más novedosos y espectaculares posibles. Y esto tiene sus riesgos, evidentemente. Además hay un segundo factor a tener en cuenta: los artículos de revistas punteras son más vistos, más analizados y diseccionados por la comunidad científica que los de revistas de «gama baja». Me gustaría saber cuántos artículos que apenas nadie lee se tendrían que retractar si se sometieran a un análisis masivo por parte de la comunidad científica…

  3. Todo este negocio es una filfa y no vale para nada. Los mejores artículos son siempre los mejores, aunque se publiquen en la peor revista del ramo, porque lo que importa es lo de dentro, no la cubierta. Lo que se hace con la ciencia es como elegir las mejores películas por el diseño del cartel que las anuncia. No hay más que dar un repaso a las revistas de más impacto y ver cuántas de esas cosas no merecen estar ahí o cuantos artículos les han colado con datos inventados para dar espectacularidad a los resultados. Quizá este negocio se acabe cuando Google acabe de implantar su sistema de citas abierto para todo el mundo y para todas las revistas.

  4. Cuando la producción científica se debe publicar en ciertas revistas que solo deben estar indizadas en JCR o en alguno otro en especial, para probar su calidad, toman la decisión sesgada y de manera arbitraria, porque hacen preferencia por un tipo de indización, según la opinión de alguien en particular, que sería beneficiado por publicar en revistas que están contenidas en ese índice.
    Para reforzar mi crítica, escribo a continuación un párrafo de Laborde J. 2009. La evaluación científica y las revistas nacionales. Acta Zoológica Mexicana (n.s.) 25(3): 683-717.
    “El ISI recaba información de todos los artículos publicados por las revistas incluidas en su CI, generando una gigantesca base de datos de la que se obtienen estadísticas sobre el número de veces que los artículos y las revistas son citados. Quienes promueven este tipo de análisis, aseguran que el proceso de evaluación basado en tales estadísticas es objetivo. Sin embargo, es la interpretación de las estadísticas lo que debe regir en la evaluación y dicha interpretación descansa sobre el significado de la citación, es decir sobre las razones que motivaron al autor (o autores) a citar un determinado artículo o publicación, lo cual es bastante subjetivo (Smith 1981), tanto o más que la evaluación de nuestro trabajo por expertos en el tema (i.e. revisión por pares). Debido a que la subjetividad es menos aparente en los análisis cuantitativos de citación, es imprescindible comprender las características y entender las limitaciones de los indicadores numéricos derivados de dichos análisis (Adler et al. 2008). De lo contrario provocaremos consecuencias indeseables en las revistas, proyectos, disciplinas e instituciones científicas que están siendo tasadas mediante tales indicadores. Al respecto vale la pena transcribir lo dicho por el crítico y poeta Gabriel Zaid (2009) en su libro más reciente, pues ilustra nítidamente parte del problema: “…La creación del CI provocó una revolución… Los refinados métodos estadísticos del béisbol, que permiten medir y comparar proezas deportivas, se aplicaron a la ciencia. El ISI, creado por Garfield en 1964, vende esta información y ha tenido una influencia semejante al comité organizador de las competencias olímpicas. Es un centro mundial de referencia y contabilidad que, por el hecho de existir, induce cambios en la forma de competir. Tanto los avances milagrosos como los refritos mediocres se miden hoy por lo que tienen en común: el número de citas que generan”.

Deja un comentario