La noticia científica del servidor ScienceNOW Daily News (noticias de Science magazine) del año 2007 que ha sido más descargada es “No more black holes?“, de Phil Berardelli, sobre el artículo “Observation of incipient black holes and the information loss problem“, de Tanmay Vachaspati, Dejan Stojkovic, and Lawrence M. Krauss, publicado en Physical Review D, vol. 76, art. no. 024005 (2007) [para los no suscritos a la revista]. Los autores consideran la radiación que se produce durante la formación de un agujero negro a partir de una pared de dominio (un “cascarón” esférico en lugar de una estrella convencional) vista desde un observador (lejano) asintótico. Estudian este problema de forma clásica (utilizando la solución de Schwarschild) y con una aproximación cuántica basada en la ecuación de Wheeler-de Witt, observando que la radiación emitida (dos “tipos” de radiación de Hawking, una no térmica y la otra térmica, tipo Hawking) diverge (se vuelve infinita en un tiempo finito). Ello indica que toda la información de la pared de dominio se emite como radiación y no se pierde en la formación de la singularidad que oculta el agujero negro, es decir, no se forma ningún agujero negro: el “agujero negro” se evapora mientras se forma, con lo que no llega a formarse nunca. Los cálculos, en la ausencia de una teoría cuántica de la gravedad, son muy aproximados y desprecian algunos efectos, por ejemplo, consideran que el espacio tiempo (la métrica) de fondo (background) es estática (no consideran el cambio introducido por el propio colapso, la “backreaction”).

Los autores (salvo el famoso Krauss) han publicado un artículo en el que mejoran el cálculo precedente, ya que aplican a la pared de domino un tratamiento cuántico en lugar del semi-clásico del anterior artículo. También confirman la evaporación del agujero negro previo a su formación. Uno de los autores, Vaschapastio, ha ido incluso más lejos, incorporando una aproximación a la “backreaction” e incluso definiendo un nuevo concepto “estrellas negras” (black stars) para las estrellas que, durante el colapso que lleva a la formación de un agujero negro, están “congeladas” cerca de su horizonte de sucesos, proponiendo que la colisión entre estrellas negras puede ser responsable de los chorros de rayos gamma (“gamma ray bursts”) más espectaculares (que no tienen una “buena” explicación astrofísica).

Sin embargo, todos estos resultados extremadamente especulativos van en contra del conocimiento establecido, así que una dura crítica no ha tardado mucho en publicarse. El resumen del artículo ““Black Star” or Astrophysical Black Hole?” del astrofísico Kristóf Petrovay, no requiere más traducción “I demonstrate that these ill-considered claims are clearly wrong”. El autor recuerda que los efectos de la radiación de Hawking son despreciables para un agujero negro astrofísico, requieren escalas de tiempo superiores a la edad del universo, y que por tanto, por mucho que radie el objeto que colapsa, acabará necesariamente en un agujero negro astrofísico (una crítica clara al artículo firmado por Karuss). Además, el autor indica que la radiación emitida en el colapso de los estrellas negras no sería perceptible por un observador asintótico por la misma razón que un agujero negro es negro, estaría “infinitamente” corrida hacia el rojo. Por tanto, esta serie de trabajos científicos no son más que meras elucubraciones teóricas sin ninguna utilidad astrofísica (el autor afirma que científica, ya que tampoco las considera aplicable a mini-aguajeros negros como los que se podrían producer en el futuro LHC).

En resumen, Krauss, que es un gran divulgador científico y ha ganado mucho dinero vendiendo libros con ideas que podemos calificar de “radicales”, tiene un nuevo filón: los agujeros negros no existen y esto se podrá demostrar experimentalmetne en el LHC.

En el servidor de artículos arxiv.org muchas veces aparecen artículos de difícil publicación en revistas de investigación científica. Algunos son interesantes, otros son “chorradas”. El artículo “Some conjectures about the mechanism of poltergeist phenomenon” pretende explicar este fenómeno para-psicológico mediante la proyección de ondas por parte del cerebro (una especie de telequinesis):

A decrease in entropy (creation of order) in brain of pubescent people (or young women!!) throws a greater amount of entropy (disorder) into the brain environment, which, in exceptional cases, originates poltergeist disturbances. In practice, poltergeist is interpreted as a by-product of the entropy increase (dS/dt)Env expected in consequence of the second law.”

El “espeluznante” resumen es como sigue:

Poltergeist accounts concern at least four kinds of strange spontaneous manifestations, such as burning of materials, failures of electric equipments, rapping noises and movements of objects. A simple analysis of phenomenology of these disturbances shows that they might have a common origin, that is, a reduction in strength of molecular bonds due to an enhancement in polarization of vacuum which decreases the actual electron charge. Arguments based on Prigogine’ nonequilibrium thermodynamics are proposed, which show how transformations in brain of some pubescent childs or young womans might be the cause of these effects.”

Estos autores parece que siguen la estela de Nicola Tesla, gran inventor, que propuso la “propagación por el aire (sin cables) de la electricidad” en un contexto “esotérico”. Por supuesto, esto no tiene nada que ver con el trabajo en wireless electricity en el MIT de MARIN SOLJACIC, la “witricidad” (Witricity) que podéis ver en acción en vídeo.

Dimitrios Katsaros et al. presenta un trabajo muy interesante sobre cómo medir la calidad de un investigador utilizando un nuevo índice bibliométrico que pretende ser independiente del (robusto al) spam (scientospam) de forma que un autor y sus colaboradores, gracias a las auto-citas, no puedan “falsear” fácilmente: “Spam: It’s Not Just for Inboxes and Search Engines! Making Hirsch h-index Robust to Scientospam“. Los autores consideran que la calidad de un artículo se mide mejor por el número de autores que lo han citado (y posiblemente ¿leído?) en lugar de por el número de citas, introduciendo un nuevo índice llamada índice f (f-index). Introducen una medida vectorial que vuelven escalar multiplicándola por un vector de “promedio” y la medida resultante la aplican al modo de Hirsch para calcular su índice f. La idea no es mala, aunque en la práctica este índice es mucho más difícil de calcular a mano que el de Hirsch.

Los resultados muestran que, como es de esperar, índices h altos o muy bajos conducen a índices f altos o muy bajos. Sin embargo, en la banda media, las diferencias entre ambas medidas son muy grandes. Validar cuál es mejor es extremadamente difícil, como los autores reconocen. Aunque he de darles la razón, cuantas más medidas cienciométricas existan mejor que mejor. Así que bienvenida sea una nueva.

Hablando de índices al estilo del de Hirsch, ¿cómo está la ciencia española en cuanto a índice-h? Aunque no es una página oficial y no incluye a todas las comunidades autonómicas, es interesante consultar la página índice h de geocities y el listado por áreas de conocimiento de investigadores con índice h superior a 20. Sobre el índice h es interesante el artículo de opinión aparecido en EL PAIS, escrito por Ricardo García. Hay muchos otros artículos a favor y en contra de este índice, o el artículo del grupo SCImago al respecto.

La conjetura de Riemann está considerada como el problema abierto más importante de toda la matemática; su demostración será premiada con un millón de dólares (premio Clay del milenio); sin embargo, su refutación no recibirá ni un solo dólar. En el último lustro se han publicado múltiples demostraciones (incorrectas) y refutaciones (falsas) de la misma. La última, un artículo muy cortito de 6 páginas, la acabo de leer: L. Aizenberg “Lindelöf’s hypothesis is true and Riemann’s one is not” en el servidor arxiv.org de preprints. El autor tiene 13 artículos en revistas del JCR. Mi primera lectura fue sospechosa: el autor afirma en la “Remark 2.1″ que el Teorema 8.12 del libro de Titchmarsh, “The Theory of Riemann zeta-function”, Oxford Press 1988, es falso; más aún el presenta un demostración “brief, elementary and pretty simple and I see no mistakes in it”, mientras que la demostración de Titchmarsh es “complicated and rests on four lemmas, all quite non-elementary, (so) I suspect that Theorem 8.12 is incorrect”. El libro está en su segunda edición (revisada) y no tengo noticias de que nadie haya encontrado dicho error. Por tanto, el artículo de Aizenberg tiene que ser incorrecto.

Buscando en sci.math, Oleg Eroshin muestra donde está el error (un error de primero de carrera o de un primer curso de cálculo): El autor afirma que

(c) arxiv.org

Lo que es falso, ya que t-t0 cambia de signo en el intervalo de integración y el teorema del valor medio en forma integral no es aplicable.

No sé como no pude darme cuenta del error en mi primera lectura. Estoy perdiendo facultades.

En el número de hoy de Science (vol. 319, no. 5859) se han vuelto a publicar dos letters sobre el GRAN problema de la revisión de artículos científicos (peer review). En el primero “In Search for Peer Reviewers” un editor (de una revista que es la 27 de 115 en su categoría) se queja de que no logra encontrar revisores de calidad y acaba enviando los artículos a revisar a investigadores que “no saben” del tema o que “publican poco” (y por eso tienen tiempo para revisar) en dicho tema. Reclama que todos consideremos la Revisión como algo tan importante como la Investigación, si escribimos n artículos al año recomienda que aceptemos revisar del orden de 4n artículos por año. Por lo que veo, por ahora tengo suerte: me piden que revise menos artículos al año de los que publico.

(C) Science Magazine

En el segundo “A Peer Review How-To” un investigador senior, editor de 3 revistas y con una centena de publicaciones critica a los “buenos” revisores que se toman demasiado “en serio” su trabajo y recomienda que “pasemos la mano”, que la LOGSE y la LOU también deben llegar a la investigación. Parece que le molesta que los revisores actualmente hagan muchas recomendaciones del estilo “No aceptamos el paper en su forma actual, pero lo aceptaríamos si además se hiciera esto otro”. En su opinión, si el autor hubiera querido hacer eso otro, lo hubiera hecho. El recomienda que se rechace directamente el artículo sin más, si se considera que “eso otro” es imprescindible. O que se acepte el artículo sin más, permitiendo al autor escribir, si el quiere, un nuevo artículo presentando “eso otro”.

Esto me ha traido a la memoria el artículo “A peer review of peer review” que apereció en la conferencia “5th World Conference of Science Journalists” de Abril de 2007, que encontré cuando preparaba un curso de Doctorado sobre Metodología de la Investigación. El asunto es muy peliagudo y las grandes revistas científicas como Nature o Science le han dedicado mucha atención, por ejemplo, Nature’s Peer-To-Peer, o Nature’s Debate on Peer Review.

(C) http://pubs.acs.org/journals/acbcct/currentissue.html

Una de las ideas que he leído que más me ha gustado es la de “Peer-review system could gain from author feedback“, la doble revisión. El revisor revisa el artículo del autor para conocimiento del editor y del propio autor, y el autor revisa la revisión del revisor para conocimiento del editor. Yo mismo me he encontrado revisiones de mis artículos en los que el revisor parece que “ignoraba” el tema y salía por los “cerros de Úbeda”. También, muy buenas revisiones. Un sistema así sería de fácil implementación, aunque claro, ¿cómo gestionaría “correctamente” el editor la información recibida de los autores sobre los revisores?

A los interesados en este tema les recomiendo el libro “Peer Review and Manuscript Management in Scientific Journals: Guidelines for Good Practice“. Y a los no interesados en este tema, pero que sufren el proceso de revisión en sus carnes, les gustará leer “How To Survive Peer Review“.

Medir la calidad científica de un artículo de un investigador es importante pero a la vez difícil. Una de las maneras más sencillas es medir la calidad de la revista en la que ha sido publicado. Pero medir la calidad de una revista, tampoco es fácil. Eugene Garfield introdujo el índice de impacto en 1955 en un artículo en la prestigiosa revista Science y acabó generando una empresa comercial Thomson Scientific que generó en 2006 más de 6.600 millones de dólares (8% más que el año anterior) y que emplea a 32.000 personas. Desafortunadamente hay que pagar. En las universidades españolas, la Fundación Española de Ciencia y Tecnología (creada en durante el gobierno de Aznar) se encarga de pagar la “dolorosa”.

El desarrollo de bases de datos públicas (al menos hasta el momento) que compitan con dicha empresa comercial se me antoja como muy interesante y conveniente. Pero dichas iniciativas requieren el amparo de grandes compañías comerciales con objeto de que se les otorge el calificativo de “prestigiosas”.

Investigadores españoles de varias universidades, entre ellas la de Granada, han desarrollado un nuevo sistema de medición de la calidad de revistas basado en el algoritmo PageRank de (y patentado por) Google, el SJR (SCImago journal rank). Como todos los índices de calidad, tiene sus ventajas y sus inconvenientes. Las revistas científicas que aparecen, la clasificación de categorías científicas, y muchos otros detalles difieren del JCR (Journal of Citation Reports, link español), de hecho, el SJR se basa en los datos de Scopus, de la gran editorial Elsevier. He encontrado algunas dificultades. Hay resultados muy extraños: el “Journal of the ACM” el 37 de su categoría (realmente chocante para la revista de absoluta referencia, mínimo 3 años para que te publiquen), aunqe si ordenamos por su índice H, que es 40 es la 8 de 113 (algo más razonable). O la revista “Fuzzy Sets & Systems” por encima de “IEEE Intelligent Systems”; quizás se observa el “sesgo” Elsevier, quien ha pagado al grupo de investigación su trabajo. En mi opinión, como utilizan la BBDD de revistas Scopus, que ha incluido a las revistas de IEEE sólo recientemente (creo que a partir de 2002), los datos están “Elsevier” sesgados, las revistas de esta editorial están completas, pero las del resto de editoriales “importantes” no “necesariamente” lo están. Sin embargo, seguramente corregirán este “defecto” en un futuro no muy lejano. También resulta curioso que “Computer Physics Communications (CPC)” esté por delante de “Journal of Computational Physics (JCP)”, ambas de Elsevier.Sin embargo, me gusta que aparezca el índice de Hirsch (índice H), que los bibliometristas han demostrado que no es adecuado para medir la calidad investigadora de individuos, parece que no es “malo” midiendo la calidad de grupos, instituciones y revistas. Si ordenamos los resultados de SCImago por el índice H en lugar del SJR los resultados son mucho más “representativos” (en mi opinión personal, claro). Por ejemplo, en 2006, JCP tiene 66 y CPC sólo 48.

Aunque SCImago acaba de comenzar (creo que está en versión “beta”) y actualmente contiene muchos “fallos”, éstos se corregirán en un futuro no muy lejano y acabará conviertiéndose en uno de los estándars de calidad. De hecho, a mí me conviene que lo utilicen, el JCR sólo contiene unas 9000 revistas, y Scopus alcanza las 15000, incluyendo algunas revistas No-JCR en las que he publicado.

NOTA: a los interesados en surfear la web sobre estos temas, no olvidar consultar el Eigenfactor de nuestro revista favorita. También os recomiendo que instaléis el programa Publish or Perish y calculéis vuestros índices de calidad (basado en Google Scholar).

El artículo “Mathematics and wine” de Stefano De Marchi es sorprendente por múltiples razones. ¿Cómo es posible que un artículo así se haya publicado en una revista de investigación de “cierto” prestigio como Applied Mathematics and Computation? El artículo (invitado) no dice absolutamente nada nuevo sobre Matemática Aplicada ni sobre enología (la ciencia del vino). Más aún, es PUBLICIDAD. ¿Cómo es posible? Una revista científica haciendo publicidad de un vino italiano llamado caos. ¡¡ Increíble el marketing de los vinos italianos !! Los vinateros españoles tienen mucho que aprender tanto de los “chovinistas” franceses como de los “diseñadores” italianos.

Vino Caos 2000

El susodicho “Vino rosso runino dal profumo complesso ed elegante con note di vaniglia e frutta matura” utiliza fractales de Julia obtenidos del conjunto de Mandelbrot como etiqueta “que llama la atención” del consumidor. Ni lo he probado ni está en mis prioridades el hacerlo.

(C) Elsevier’s Journal Applied Mathematics and Computation

A los interesados en la “vida y obra” de Benoit Mandelbrot, os recomiendo su charla en el ICM (International Congress of Mathematicians) 2006 celebrado en Madrid, cuyo enlace es el siguiente http://www.icm2006.org/video/ => Table of Contents => Seventh Session => Special Lecture: The nature of roughness in mathematics, science and art.

Es en inglés pero espero que disfrutéis … yo estaba entre el público y disfruté en vivo y en directo.

Los fractales (muy de moda en los 1980s) son ideales para serigrafiar camisetas (lo reconozco, tengo amigos que trabajan ganando ‘pelas’ en esto). A los interesados os recomiendo el libro Beauty Of Fractals, de Peitgen y Richter, que combina imágenes impactantes con una introducción a la matemática de los fractales (la convergencia de métodos iterativos para la resolución de ecuaciones). Por supuesto, sin desmerecer a los libros del propio Mandelbrot.

Francis, The Talking Mule

¿Y por qué no? “Francis, the talking mule” serie de televisión muy popular en los 1950 (si hago memoria, la primera cosa que recuerdo haber visto en la televisión, ¡¡ un burro hablador !! que se llamaba como yo, en casa me llamaban Francis) que dió lugar a varias películas y tebeos, es un reflejo temprano de lo que más tarde fue la creencia de que la ciencia y técnica del ejército americano (ejemplificadas por la NASA) eran tan avanzadas que podían hacer posible casi cualquier cosa ¡¡ hasta que una mula hable !! Este blog trataré de presentar algunas “noticias” científico-técnicas que me resultan curiosas y/o interesantes. Igual que Chill Wills, pondré voz a la e-mula.

Chill Wills, la voz de la mula en los 1950s.

La mula es un animal “muy científico”. Ha sido uno de los primeros animales en ser clonado, de hecho, incluso antes que el caballo (nació el 5 de mayo de 2003). La mula “Idaho Gem” nació tras 346 días de gestación (lo normal) en la matriz de una yegua.
¿Por qué la mula antes que el caballo? Porque es un animal estéril. Recuerda que fue en 1997 cuando se clonó a la oveja Dolly, que murió a los 6 años, poco antes de nacer Idaho.
La clonación es difícil. Sólo un 10% de los intentos, actualmente, tiene éxito. Además, la mayoría de los animales clonados suelen morir “antes” de lo habitual. ¿Por qué es difícil clonar por el procedimiento habitual de transferencia de núcleos? Quizás la epigenética tenga la respuesta. El núcleo transferido no sólo contiene el DNA con el código genético, también contiene gran número de enzimas, metabolitos y otras moléculas cuyo contenido varía de una célula a otro. Al extraer el núcleo de un célula de un animal adulto, éste núcleo es muy diferente al de un gameto. Su reintroducción en otro gameto, provoca importantes cambios enzimáticos en su interior, pero ciertos enzimas no “acaban de funcionar correctamente”. Quizás ahí está el problema.
Hasta que no se entiendan en detalle todos los procesos enzimáticos involucrados en las primeras fases del desarrollo de un oocito no se podrán realizar clonaciones con garantías de éxito. Sin embargo, el futuro de la biología sistémica promete ser muy fructífero.
Espero que el futuro de este blog lo sea también.