En el número de hoy de Science (vol. 319, no. 5859) se han vuelto a publicar dos letters sobre el GRAN problema de la revisión de artículos científicos (peer review). En el primero “In Search for Peer Reviewers” un editor (de una revista que es la 27 de 115 en su categoría) se queja de que no logra encontrar revisores de calidad y acaba enviando los artículos a revisar a investigadores que “no saben” del tema o que “publican poco” (y por eso tienen tiempo para revisar) en dicho tema. Reclama que todos consideremos la Revisión como algo tan importante como la Investigación, si escribimos n artículos al año recomienda que aceptemos revisar del orden de 4n artículos por año. Por lo que veo, por ahora tengo suerte: me piden que revise menos artículos al año de los que publico.

(C) Science Magazine

En el segundo “A Peer Review How-To” un investigador senior, editor de 3 revistas y con una centena de publicaciones critica a los “buenos” revisores que se toman demasiado “en serio” su trabajo y recomienda que “pasemos la mano”, que la LOGSE y la LOU también deben llegar a la investigación. Parece que le molesta que los revisores actualmente hagan muchas recomendaciones del estilo “No aceptamos el paper en su forma actual, pero lo aceptaríamos si además se hiciera esto otro”. En su opinión, si el autor hubiera querido hacer eso otro, lo hubiera hecho. El recomienda que se rechace directamente el artículo sin más, si se considera que “eso otro” es imprescindible. O que se acepte el artículo sin más, permitiendo al autor escribir, si el quiere, un nuevo artículo presentando “eso otro”.

Esto me ha traido a la memoria el artículo “A peer review of peer review” que apereció en la conferencia “5th World Conference of Science Journalists” de Abril de 2007, que encontré cuando preparaba un curso de Doctorado sobre Metodología de la Investigación. El asunto es muy peliagudo y las grandes revistas científicas como Nature o Science le han dedicado mucha atención, por ejemplo, Nature’s Peer-To-Peer, o Nature’s Debate on Peer Review.

(C) http://pubs.acs.org/journals/acbcct/currentissue.html

Una de las ideas que he leído que más me ha gustado es la de “Peer-review system could gain from author feedback“, la doble revisión. El revisor revisa el artículo del autor para conocimiento del editor y del propio autor, y el autor revisa la revisión del revisor para conocimiento del editor. Yo mismo me he encontrado revisiones de mis artículos en los que el revisor parece que “ignoraba” el tema y salía por los “cerros de Úbeda”. También, muy buenas revisiones. Un sistema así sería de fácil implementación, aunque claro, ¿cómo gestionaría “correctamente” el editor la información recibida de los autores sobre los revisores?

A los interesados en este tema les recomiendo el libro “Peer Review and Manuscript Management in Scientific Journals: Guidelines for Good Practice“. Y a los no interesados en este tema, pero que sufren el proceso de revisión en sus carnes, les gustará leer “How To Survive Peer Review“.

Medir la calidad científica de un artículo de un investigador es importante pero a la vez difícil. Una de las maneras más sencillas es medir la calidad de la revista en la que ha sido publicado. Pero medir la calidad de una revista, tampoco es fácil. Eugene Garfield introdujo el índice de impacto en 1955 en un artículo en la prestigiosa revista Science y acabó generando una empresa comercial Thomson Scientific que generó en 2006 más de 6.600 millones de dólares (8% más que el año anterior) y que emplea a 32.000 personas. Desafortunadamente hay que pagar. En las universidades españolas, la Fundación Española de Ciencia y Tecnología (creada en durante el gobierno de Aznar) se encarga de pagar la “dolorosa”.

El desarrollo de bases de datos públicas (al menos hasta el momento) que compitan con dicha empresa comercial se me antoja como muy interesante y conveniente. Pero dichas iniciativas requieren el amparo de grandes compañías comerciales con objeto de que se les otorge el calificativo de “prestigiosas”.

Investigadores españoles de varias universidades, entre ellas la de Granada, han desarrollado un nuevo sistema de medición de la calidad de revistas basado en el algoritmo PageRank de (y patentado por) Google, el SJR (SCImago journal rank). Como todos los índices de calidad, tiene sus ventajas y sus inconvenientes. Las revistas científicas que aparecen, la clasificación de categorías científicas, y muchos otros detalles difieren del JCR (Journal of Citation Reports, link español), de hecho, el SJR se basa en los datos de Scopus, de la gran editorial Elsevier. He encontrado algunas dificultades. Hay resultados muy extraños: el “Journal of the ACM” el 37 de su categoría (realmente chocante para la revista de absoluta referencia, mínimo 3 años para que te publiquen), aunqe si ordenamos por su índice H, que es 40 es la 8 de 113 (algo más razonable). O la revista “Fuzzy Sets & Systems” por encima de “IEEE Intelligent Systems”; quizás se observa el “sesgo” Elsevier, quien ha pagado al grupo de investigación su trabajo. En mi opinión, como utilizan la BBDD de revistas Scopus, que ha incluido a las revistas de IEEE sólo recientemente (creo que a partir de 2002), los datos están “Elsevier” sesgados, las revistas de esta editorial están completas, pero las del resto de editoriales “importantes” no “necesariamente” lo están. Sin embargo, seguramente corregirán este “defecto” en un futuro no muy lejano. También resulta curioso que “Computer Physics Communications (CPC)” esté por delante de “Journal of Computational Physics (JCP)”, ambas de Elsevier.Sin embargo, me gusta que aparezca el índice de Hirsch (índice H), que los bibliometristas han demostrado que no es adecuado para medir la calidad investigadora de individuos, parece que no es “malo” midiendo la calidad de grupos, instituciones y revistas. Si ordenamos los resultados de SCImago por el índice H en lugar del SJR los resultados son mucho más “representativos” (en mi opinión personal, claro). Por ejemplo, en 2006, JCP tiene 66 y CPC sólo 48.

Aunque SCImago acaba de comenzar (creo que está en versión “beta”) y actualmente contiene muchos “fallos”, éstos se corregirán en un futuro no muy lejano y acabará conviertiéndose en uno de los estándars de calidad. De hecho, a mí me conviene que lo utilicen, el JCR sólo contiene unas 9000 revistas, y Scopus alcanza las 15000, incluyendo algunas revistas No-JCR en las que he publicado.

NOTA: a los interesados en surfear la web sobre estos temas, no olvidar consultar el Eigenfactor de nuestro revista favorita. También os recomiendo que instaléis el programa Publish or Perish y calculéis vuestros índices de calidad (basado en Google Scholar).

El artículo “Mathematics and wine” de Stefano De Marchi es sorprendente por múltiples razones. ¿Cómo es posible que un artículo así se haya publicado en una revista de investigación de “cierto” prestigio como Applied Mathematics and Computation? El artículo (invitado) no dice absolutamente nada nuevo sobre Matemática Aplicada ni sobre enología (la ciencia del vino). Más aún, es PUBLICIDAD. ¿Cómo es posible? Una revista científica haciendo publicidad de un vino italiano llamado caos. ¡¡ Increíble el marketing de los vinos italianos !! Los vinateros españoles tienen mucho que aprender tanto de los “chovinistas” franceses como de los “diseñadores” italianos.

Vino Caos 2000

El susodicho “Vino rosso runino dal profumo complesso ed elegante con note di vaniglia e frutta matura” utiliza fractales de Julia obtenidos del conjunto de Mandelbrot como etiqueta “que llama la atención” del consumidor. Ni lo he probado ni está en mis prioridades el hacerlo.

(C) Elsevier’s Journal Applied Mathematics and Computation

A los interesados en la “vida y obra” de Benoit Mandelbrot, os recomiendo su charla en el ICM (International Congress of Mathematicians) 2006 celebrado en Madrid, cuyo enlace es el siguiente http://www.icm2006.org/video/ => Table of Contents => Seventh Session => Special Lecture: The nature of roughness in mathematics, science and art.

Es en inglés pero espero que disfrutéis … yo estaba entre el público y disfruté en vivo y en directo.

Los fractales (muy de moda en los 1980s) son ideales para serigrafiar camisetas (lo reconozco, tengo amigos que trabajan ganando ‘pelas’ en esto). A los interesados os recomiendo el libro Beauty Of Fractals, de Peitgen y Richter, que combina imágenes impactantes con una introducción a la matemática de los fractales (la convergencia de métodos iterativos para la resolución de ecuaciones). Por supuesto, sin desmerecer a los libros del propio Mandelbrot.

Francis, The Talking Mule

¿Y por qué no? “Francis, the talking mule” serie de televisión muy popular en los 1950 (si hago memoria, la primera cosa que recuerdo haber visto en la televisión, ¡¡ un burro hablador !! que se llamaba como yo, en casa me llamaban Francis) que dió lugar a varias películas y tebeos, es un reflejo temprano de lo que más tarde fue la creencia de que la ciencia y técnica del ejército americano (ejemplificadas por la NASA) eran tan avanzadas que podían hacer posible casi cualquier cosa ¡¡ hasta que una mula hable !! Este blog trataré de presentar algunas “noticias” científico-técnicas que me resultan curiosas y/o interesantes. Igual que Chill Wills, pondré voz a la e-mula.

Chill Wills, la voz de la mula en los 1950s.

La mula es un animal “muy científico”. Ha sido uno de los primeros animales en ser clonado, de hecho, incluso antes que el caballo (nació el 5 de mayo de 2003). La mula “Idaho Gem” nació tras 346 días de gestación (lo normal) en la matriz de una yegua.
¿Por qué la mula antes que el caballo? Porque es un animal estéril. Recuerda que fue en 1997 cuando se clonó a la oveja Dolly, que murió a los 6 años, poco antes de nacer Idaho.
La clonación es difícil. Sólo un 10% de los intentos, actualmente, tiene éxito. Además, la mayoría de los animales clonados suelen morir “antes” de lo habitual. ¿Por qué es difícil clonar por el procedimiento habitual de transferencia de núcleos? Quizás la epigenética tenga la respuesta. El núcleo transferido no sólo contiene el DNA con el código genético, también contiene gran número de enzimas, metabolitos y otras moléculas cuyo contenido varía de una célula a otro. Al extraer el núcleo de un célula de un animal adulto, éste núcleo es muy diferente al de un gameto. Su reintroducción en otro gameto, provoca importantes cambios enzimáticos en su interior, pero ciertos enzimas no “acaban de funcionar correctamente”. Quizás ahí está el problema.
Hasta que no se entiendan en detalle todos los procesos enzimáticos involucrados en las primeras fases del desarrollo de un oocito no se podrán realizar clonaciones con garantías de éxito. Sin embargo, el futuro de la biología sistémica promete ser muy fructífero.
Espero que el futuro de este blog lo sea también.