El autobombo de las autocitas

Por Francisco R. Villatoro, el 19 agosto, 2019. Categoría(s): Bibliometría • Ciencia • Nature • Noticias • Science ✎ 8

El número de citas es el mejor índice de calidad de un artículo. Todos los científicos saben que necesitan promoción para que sus artículos reciban más citas. Además de la asistencia a congresos científicos y la difusión en redes sociales, un método usual son las autocitas (entre coautores). Un estudio publicado en PLoS Biology  sobre los cien mil científicos más citados entre 1996 y 2017 ha encontrado 1085 (8599) con un número de autocitas superior al 40% (25%); la mediana es del 12.7%. Entre los cien mil más citados en el año 2017 hay 1565 (8534) con más del 40% (25%) de autocitas; la mediana es del 9.2%. Estos números dependen mucho del área de conocimiento, pero esconden algunas redes de autocitas (citation farms), un tipo de fraude científico. Para evitar los casos patológicos, ¿se deben descontar las autocitas a todos? ¿Cómo se puede saber si una autocita está justificada o es autobombo?

Se ha estudiado también a casi siete millones (6 880 389) de científicos con más de cinco artículos en Scopus. Se ha encontrado una media de autocitas del 15.5%; con un valor superior al 40% de autocitas en el 7% de los autores. Estos números son mayores que los de los científicos más citados porque muchos de estos investigadores son jóvenes y aún no han acumulado un número suficiente de citas de otros. Por cierto, hay que destacar que en las áreas de investigación dominadas por grandes colaboraciones científicas la red de coautoría es enorme, lo que dispara el número de autocitas de forma artificial; en Física esto ocurre en Física Nuclear y de Partículas, y en Astronomía y Astrofísica. Entre los países con mayor número de autocitas destacan Rusia y Ucrania.

Se hacen eco del estudio en Nature, donde destacan tres casos que parecen patológicos. El ingeniero Sundarapandian Vaidyanathan (Univ. Técn. Vel, Chennai, India), que trabaja en dinámica no lineal, tiene un 94% de autocitas (suyas y de sus coautores), y recibió en 2018 un premio del Gobierno indio por su alta producción científica; consultado por Nature se defiende afirmando que todas sus autocitas están justificadas por la continuidad de su línea de investigación. El matemático aplicado Theodore E. Simos (Univ. Rey Saúd, Riad, Arabia Saudí) tiene un 76% de autocitas y el bioquímico Claudiu T. Supuran (Univ. Florencia, Italia) un 62%, ambos se encuentran en el listado de los 6000 investigadores más relevantes de Clarivate Analytics (empresa propietaria de Web of Science); ni Simos ni Supuran han respondido la consulta de Nature.

¿Hay que establecer un umbral mínimo aceptable de autocitas? ¿Hay que criminalizar las autocitas excesivas? ¿Se debe usar el índice h sin autocitas? Muchas preguntas sin una respuesta sencilla. Como siempre, la mejor forma de evaluar la producción de un investigador es un análisis detallado individualizado. El artículo es John P. A. Ioannidis, Jeroen Baas, …, Kevin W. Boyack, «A standardized citation metrics author database annotated for scientific field,» PLoS Biology (12 Aug 2019), doi: 10.1371/journal.pbio.3000384; más información en Richard Van Noorden, Dalmeet Singh Chawla, «Hundreds of extreme self-citing scientists revealed in new database,» News, Nature, 19 Aug 2019.



8 Comentarios

  1. Tenía entendido que el número de citas nunca fue pensado como índice de calidad, sino bibliométrico. Por ejemplo, las revisiones sistemáticas no tienen en cuenta para nada el índice de citas, ni la revista donde ha sido publicado, pues ello supondría un sesgo. Únicamente la calidad individual (y del grupo en la síntesis) de los artículos incluidos.

  2. No, no hay que criminalizar las autocitas, sino que hay que hacer un análisis más detallado. El caso del Vaidyanathan parece raro, pero: ¿y si sus papers son buenos? ¿Y si es prácticamente el único que estudia lo que estudia? ¿Es malo en ciencia estudiar algo «raro»? En fin, tampoco hay que ser cándido: han habido casos denunciados en este mismo blog de grupos de científicos y editores autocitándose y publicándo entre ellos papers de muy baja calidad en matemática aplicada.

    1. En algunos casos las autocitas salen de forma natural, ya que muestra una continuidad en una investigación.
      Como siempre, hay gente que abusa y re-abusa, y conozco muchos casos de gente que cita por amiguismo (y pasa tanto en España como en Holanda).
      De igual forma, hay otras cosas sangrantes, como algunos editores de revistas buenas que publican a sus amiguetes que hacen mucho daño a la ciencia, y sobre todo a los jóvenes que empiezan y no tienen la suerte de estar bien conectados.

  3. A mí las autocitas me suelen llevan a otro problema: la ‘fábrica de chorizos’. ¿Cuántas investigaciones están partidas en mil papers, que se podrían haber resuelto haciendo simplemente uno bueno, y no mil ‘mini refritos’?

  4. He visitado por curiosidad en ReserchGate al ingeniero Sundarapandian Vaidyanathan (Univ. Técn. Vel, Chennai, India) y posee 2013 publicaciones. Sin evaluar el impacto de las mismas, suponiendo que empezó a los 20 años a publicar y que ahora posee 60 (soy mu malo para las edades), lleva 40 años publicando a una tasa constante de un artículo cada 7.25 días ¡Un artículo aproximadamente cada semana! Este hombre es una máquina. Este hombre tiene un buen conocimiento de cómo funciona el sistema de publicación y unos contactos envidiables, pero dudo mucho que sea un investigador con resultados ¿Tiene este hombre alguna patente comercializada? Este hombre es un producto del sistema, del cual se aprovecha. He conocido a varios en España y no tengo nada en contra de ellos, simplemente son astutos y hacen un uso excelente del marketing. Ése es su gran mérito. Yo suelo tardar unos seis meses en tratar de publicar (no investigar, tal como hacemos todos los ingenieros). Soy un bicho raro o muy torpe.
    Concluyo, que me estoy explayando. Las autocitas debieran ser eliminadas, el número de autores también debería ser tenido en cuenta. Hoy en día un artículo con un único autor se valora igual que otro de 12 autores. Y lo que solucionaría de verdad el problema es la publicidad y el reconocimiento de los revisores. He revisado algún que otro artículo y he visto cómo algunos revisores encumbran artículos que no llegan ni a trabajo fin de grado.

    1. Xavier, visitando su perfil en Google Scholar, tiene 50 artículos en 2018, 56 en 2017, 109 en 2016, 79 en 2015, 23 en 2014, 33 en 2013, 60 en 2012, 102 en 2011, 21 en 2010, 4 en 2009, 0 en 2008, 3 en 2007, 9 en 2006, 8 en 2005, 7 en 2004, … Mirando sus citas, se ve que «explotaron» en 2015: …, 339 citas en 2012, 375 en 2013, 390 en 2014 , 5130 en 2015, 5334 en 2016, 3624 en 2017), … Por lo que parece en 2011 decidió «explotar» su CV publicando más de un artículo a la semana, pero no explotó las autocitas hasta 2015 cuando decidió incluir decenas de autocitas en cada uno de sus artículos.

    2. Esos artículos obviamente no los puede escribir una persona, los hacen becarios, los cuales quedan relegados al segundo o tercer puesto. O si el artículo es de relativa importancia, a veces ni se les nombra, para incluir a los amigotes.

Deja un comentario