Con motivo de la entrada 250 de este blog desde el 1 de enero de 2008, vamos a recopilar algunas estadísticas y recapitular un poco.

Gracias a vosotros, queridos lectores, este blog ha alcanzado un “equilibrio” (estado estacionario) con más de 10.000 visitas al mes (no es mucho, pero tampoco es poco). Muchos comentarios no habéis dejado (sólo 189). Parece que en este blog el que escribe soy yo. Las entradas más visitadas de todos los tiempos son las siguientes.

¿Por qué escribo un blog sobre “noticias” de ciencia? Para destensar un poco los “músculos” de mi cerebro. El blog me sirve para liberar estrés. A veces uno tiene ganas de perder el tiempo un rato, buscar por internet, … en lugar de hacerlo “a voleo”, pongo como excusa este blog y a vosotros y me dedico a escribrir sobre parte de lo que encuentro. Me quita tiempo, mucho tiempo, pero este año, por ahora, es el mejor en cuanto a mi rendimiento académico. Espero seguir así… y no os aburro más.

Hoy se cumplen los 790 días de la misión espacial PAMELA (Payload for Antimatter Matter Exploration and Light-nuclei Astrophysics), misión conjunta italiana-rusa-alemana-sueca. Uno de sus objetivos, estudiar la materia oscura empieza a dar sus primeros éxitos. Han encontrado un exceso de antielectrones (positones) en nuestra galaxia, como se publica en Geoff Brumfiel, “Physicists await dark-matter confirmation. PAMELA mission offers tantalizing hint of success,” News, Nature, 454:808-809, 13 August 2008 .Este exceso de positones no es fácil de explicar, siendo la explicación más razonable que su origen es la desintegración de WIMPS (weakly interacting massive particles). En concreto la desintegración del neutralino, una partícula supersimétrica de tipo fermión de Majorana, cuya desintegración conduce a la producción por igual de partículas y antipartículas, conduciendo a la observación de un exceso de antipartículas respecto al fondo esperado si no se diera esta desintegración. Y eso es lo que han observado, un exceso de antielectrones. ¿Es la primera observación de la supersimetría? Si lo es, sin lugar a dudas, es uno de los grandes descubrimientos astrofísicos del año.

El investigador principal de la misión PAMELA, Piergiorgio Picozza, de la Universidad de Roma Tor Vergata, “ocultó” los resultados encontrados hasta tener la aceptación del artículo en los que se publicarán en buzón (si en unos años se confirma que la materia oscura en nuestra galaxia son WIMPS, Picozza es “fuerte” candidato al Nobel de Física por este descubrimiento). La identificación de positones ultrarrápidos son extremedamente difíciles, pero los datos son indiscutibles. Los especialistas en materia oscura estaban esperando una señal como la que se ha encontrado desde hace muchos años. ¿Es la materia oscura la única explicación posible? Por ahora, es la explicación más simple y la más razonable. Los físicos no han desarrollado respuestas alternativas a este fenómeno porque pocos esperaban que fuera observado experimentalmente (podría justificarse por la emisión de estrellas de neutrones, púlsares y estrellas binarias de rayos X capaces de emitir positones de alta energía, pero estas fuentes deberían encontrarse en nuestra propia galaxia).

Este resultado no viene sólo. En abril de este año, otro grupo italiano, los científicos del experimento DAMA/LIBRA (Dark Matter/Large Sodium Iodide Bulk for Rare Processes) bajo la montaña italiana de Gran Sasso, proclamaron que también habían observado la materia oscura, Geoff Brumfiel, “Italian group claims to see dark matter – again. Gran Sasso detector picks up unusual signal,” News, Nature, 452:918 , 23 April 2008 y Geoff Brumfiel, “Physicists see the dark? Italian team says elusive particles spotted in underground detector,” Online News, Nature, 16 April 2008 . De hecho, ya habían observado una señal similar en septiembre de 2007.

Desafortunadamente para los investigadores de DAMA, el rango de energía para las WIMPS que ellos proclamaban haber encontrado entra en contradicción con el rango observado por PAMELA (también estaba en contradicción con los resultados previos del experimento americano Cryogenic Dark Matter Search II ).

En resumen, ¿realmente la materia oscura en nuestra galaxia está formada por WIMPS? La única manera de que no haya dudas es que el LHC del CERN encuentre la supersimetría (premio Nobel en un año), es decir, que encuentre las WIMPS (posiblemente la partícula llamada neutralino). En mi opinión, la SUSY será encontrada “con toda seguridad.” Enhorabuena a los investigadores de PAMELA por su gran trabajo.

En Teoría de la Relatividad, la máxima velocidad a la que se puede propagar “información clásica” es la velocidad de la luz (en el vacío), sea c. Nada puede propagar información (energía o materia) más rápido que la luz. Por supuesto, la velocidad de fase de una onda puede ser mayor que la velocidad de la luz. Por ejemplo, el punto de luz del foco del láser de la NASA que incide sobre nuestro satélite, la Luna, con objeto de medir su distancia a la Tierra, se “mueve” en la superficie de la Luna a una velocidad mayor que la luz (el cálculo trigonométrico es elemental). Pero, por supuesto, esto no viola la Teoría de la Relatividad, ya que no permite “mover” energía y/o información sobre la superficie de la Luna más rápido que la luz.

En Mecánica Cuántica (No Relativista) hay dos procesos físicos básicos completamente diferentes: la evolución unitaria “en tiempo” del estado cuántico de un sistema y el colapso de la función de onda “sin tiempo” tras un proceso de medida (por un “observador”) del sistema. La evolución unitaria es completamente compatible con la Teoría de la Relatividad y no permite la transmisión de “información cuántica” a una velocidad superior a c. Sin embargo, el colapso de la función de onda es un proceso “no dinámico” (al menos en la interpretación estándar o de Copenhague de la mecánica cuántica), que parece “que no ocurre en el espacio-tiempo relativista” con lo que “viola la Teoría de la Relatividad”. Todos los experimentos parecen indicar que ocurre “instantáneamente”, a una “velocidad infinita”. ¿Esto es realmente así? ¿Qué dicen los experimentos al respecto?

El último experimento que se acaba de publicar, Daniel Salart, Augustin Baas, Cyril Branciard, Nicolas Gisin, & Hugo Zbinden, “Testing the speed of ‘spooky action at a distance’,” Nature, 454:861-864, 14 August 2008 , indica que la velocidad del “colapso” de la función de onda es superior a 10 veces la velocidad de la luz, como mínimo, y en algunos casos superior a 10000 veces la velocidad de la luz, es decir, es prácticamente “instantánea.” Aunque el resultado no es nuevo, ya se había medido esta velocidad con anterioridad, sí se trata de la medición más reciente y precisa de dicho “sorprendente” fenómeno. Para los intresados en una versión “comentada” del artículo por un especialista les recomiendo la noticia de Terence G. Rudolph, “Quantum mechanics: The speed of instantly,” Nature, News and Views, 454:831-832, 14 August 2008 .

Salart et al. han enviando dos fotones entrelazados (generados en Ginebra) a dos ciudades suizas (Satigny y Jussy) separadas 18 kilómetros. Como los fotones están entrelazados, si un fotón tiene un estado (+) el otro tiene (-) y viceversa; hasta que no se mide alguno de ellos no se puede saber en qué estado tiene cada partícula (“teóricamente” ambos fotones se encuentran en ambos estados simultáneamente). Los investigadores han “medido” una de las partículas en una de las ciudades y han tratado de medir cuánto tiempo requiere la otra partícula para “enterarse” del estado que “tiene que” tener (si la otra era (+) ella es (-) y viceversa). Si se ha “transmitido una señal” entre ambas partículas para informar a la segunda del estado que tiene que tener en función del valor medido en la primera, teniendo en cuenta la velocidad de los equipos ópticos y electrónicos utilizados en la medida, dicha señal se debe haber transmitido a una velocidad “enorme”.

La figura muestra la velocidad mínima “experimental” para la transmisión de la señal “cuántica” que “transmite” el resultado del colapso en función de la velocidad de la Tierra. En la figura, beta=v/c es el cociente entre la velocidad de la Tierra v respecto a un sistema en reposo absoluto (no relativista) y la velocidad de la luz c, suponiendo que la “información cuántica” se transmite “muy rápido” respecto a dicho sistema en reposo absoluto. Este sistema en reposo “absoluto” es necesario por ciertas teorías alternativas a la mecánica cuántica (como la teoría de la onda-piloto de de Broglie-Bohm) como sustrato respecto al cual se propaga la “información cuántica” a una “velocidad finita”. Según la Mecánica Cuántica convencional, la velocidad es infinita, es decir, el colapso es instantáneo. Como muestra la figura, la velocidad de transmisión de información cuántica (V_QI) es hasta 10000 veces superior a la velocidad de la luz para beta igual a una milésima. En el caso “poco razonable” de que la Tierra se mueva a la velocidad de la luz respecto al sistema en reposo “absoluto”, cuando beta=1, la “señal” cuántica se ha propagado a una velocidad al menos de 10 veces más rápido que la velocidad de la luz.

Este resultado confirma, casi sin lugar a dudas, que el colapso de la función de onda se produce “instantáneamente”, es decir, no se produce “en el tiempo”. ¿Qué es el tiempo? ¿Qué es el tiempo en Mecánica Cuántica? La evolución unitaria del estado cuántico ocurre en el tiempo como magnitud “clásica” (es un parámetro en las ecuaciones que no corresponde a un operador cuántico). En Mecánica Cuántica podemos describir un intervalo de tiempo, una duración de un proceso, con un operador cuántico. Pero nadie sabe cómo describir el tiempo, una sucesión de instantes de tiempo. El colapso de la función de onda, en mi opinión, será “entendido” cuando se logre entender el tiempo como magnitud cuántica (o quizás, precuántica). Entender el tiempo desde un enfoque cuántico nos permitirá entender la gravedad en un contexto cuántico.

El tiempo, el colapso de la función de onda, la gravedad cuántica, … ¡cuántas cosas nos quedan aún por conocer!

APÉNDICE: La noticia también aparece en la “competencia,” el servidor de noticias de la revista Science: Phil Berardelli, “Quantum Physics Gets “Spooky”,” ScienceNOW Daily News, 13 August 2008 . Berardelli empieza con “This might be a rare case about which Einstein was wrong,” y acaba con “I am sure we are not finished unveiling what the quantum [effects] due to entanglement really are and how powerful they can be.”

Los resultados experimentales relativos a la búsqueda del bosón de Higgs (predicho por el Modelo Estándar de partículas elementales y aún no encontrado) indican que su masa es mayor de 114 GeV (unas 121 veces la masa del protón). El Tevatrón en el Fermilab (cerca de Chicago, EEUU) está buscando “desesperadamente” al bosón de Higgs en el rango de masas de 114 a 200 GeV. Sin embargo, su luminosidad no este rango no es tan buena como la del LHC (Large Hadron Collider) del CERN que empezará a funcionar el 10 de septiembre (fecha planificada a día de hoy). El LHC puede encontrar un bosón de Higgs con una masa entre 114 GeV y 1000 GeV (1 TeV), para lo que utilizará a pleno rendimiento colisiones protón-antiprotón con hasta 7 TeV en su centro de masas. Sin embargo, la luminosidad del LHC para posibles detecciones del Higgs es baja en el rango de masas de 114 a 125 GeV aunque mejora mucho conforme la masa en reposo del Higgs cece. ¿Quién será el primero en observar el Higgs? ¿El LHC europeo o el Tevatrón americano?

En la web de Scientific American (que 2 meses más tarde es traducida al español como Investigación y Ciencia) acaba de aparece la noticia “Fermilab says: “Hey wait, we’re in the Higgs hunt, too!,” Aug 8, 2008 , artículo escrito por J.R. Minkel, traducida “Eh! Que el Fermilab puede encontrar el Higgs antes que el LHC.” De hecho, ahora han empezado una búsqueda por intervalos y acaba de excluir un bosón de Higgs con una masa de unos 170 GeV (aunque no uno con una masa entre 114 y algo menos de 170, o uno con algo más de 170). Para ello han combinado resultados obtenidos con los detectores CDF y DZero del Tevatron. Es la primera vez que el Tevatron restringue de esta forma la masa del Higgs, y no será la última (Fermilab Today, “Tevatron experiments double team Higgs boson,” 4 August 2008).

Ahora mismo parece estar de moda “comentar” las predicciones del blog multiautor “Cosmic Variance,” en el que 6 físicos escriben sobre física y sobre “sus cosas.” La entrada más comentada es “What will the LHC find?,” de Sean Carroll, físico del Caltech de gran reputación, especialmente por su faceta de divulgador científico (sigue la línea “comercial” de Paul Davis, en mi opinión, claro). ¿Y qué hace el Dr. Carroll en dicha página? Pues cuantifica el porcentaje de posibilidades de que el LHC descubra cosas. ¿Cómo lo cuantifica? Por su “cara bonita.” Faltaría más. Cual Paul Davis, si el lo dice, que los demás se lo crean. Desafortunadamente para tí, estimado lector, a mí no me gusta la “cuantificación religiosa” y prefiero la “cuantificación empírica.” Tomemos, por ejemplo, Scopus de Elsevier (y las páginas web de Scirus). Como veremos, la web es más optimista que la literatura científica. Recapitulemos.

El LHC encontrará el bosón de Higgs con una probabilidad del 95% según Carroll. Hay 4337 artículos (55869 en la Web según Scirus) sobre el bosón de Higgs de los cuales 33 (569) son sobre teorías sin Higgs, es decir, en mi “opinión” hay un 99.24% (98.98%) de probabilidades de que se encuentre el Higgs en el LHC ya que ese porcentaje de artículos publicados considera que el Higgs “existe.” Soy más optimista que Carroll.

El LHC encontrará pruebas de la supersimetría con una probabilidad del 60%. Hay 11777 artículos (104156 en la Web) sobre supersimetría de los cuales 1001 (11777) discuten sobre la posiblidad de que la supersimetría no sea econtrada en el LHC, por tanto, en mi “opinión” hay 91.50% (80.93%) de posibilidades de que se encuentre la supersimetría en el LHC (mi “apuesta” es que el Nobel de Física será recibido por los directores del LHC por el descubrimiento de la supersimetría). También soy más optimista que Carroll.

El LHC encontrará pruebas de dimensiones espaciales “grandes” tipo Arkani-Hamed (dimensiones compatificadas) con una probabilidad del 1% (10%). Además, encontrará evidencia a favor o en contra de las supercuerdas con una probabilidad del 0.5%. Sólo 11 artículos (1246 webs) de 534 (6270) sobre dimensiones espaciales superiores compactificadas consideran la posibilidad de encontrarlas en el LHC con lo que en mi “opinión” la probabilidad de encontrarlas en el LHC es sólo de 2.06% (19.87%). Pero si, como creo, esta “opinión” hay que contextualizarlas en el marco de la teoría de cuerdas el valor se reduce a sólo el 0.32% (5.21%). De hecho, las probabilidades de encontrar pruebas a favor o en contra de “las ideas” de supercuerdas en el LHC se reflejan en sólo 38 (1908 ) artículos de 3413 (23918 ), es decir, con una probabilidad del 1.11% (7.98%). Sorprendentemente, grosso modo, “coincido” con Carroll en sus órdenes de magnitud.

El LHC encontrará pruebas de agujeros negros de evaporación rápida (estables y peligrosos para la vida en la Tierra) con una probabilidad del 0.1% (10^(-25) %). ¿De dónde habrá sacado Carroll estos números? Hay 194 artículos (7051 webs) sobre agujeros negros en el LHC de un total de 19737 (736137) sobre agujeros negros en general, por tanto, la “probabilidad”de encontrar agujeros negors de evaporación rápida en el LHC es del 0.98% (0.96%). En mi “opinión” personal esta probabilidad es realidad mucho más alta de la “correcta” y coincido con Carroll en que un 0.1% es más razonable. En cuanto al peligro de los mismos. En mi opinión, la probabilidad de 10^(-25) de Carroll, similar en orden de magnitud a la probabilidad de que en el próximo segundo caiga un meteorito sobre la Tierra y la destruya, es despreciable. Por ello, creo que la probabilidad de que el LHC sea inseguro es “nula”.

El LHC encontrará evidencia de la materia oscura con una probabilidad del 15%. Este valor contradice a la probabilidad de encontrar la supersimetría (60% según Carroll), ya que prácticamente todos los investigadores creen que la materia oscura no es otra cosa que partículas supersimétricas. Como ya he indicado, mi “opinión” es que la supersimetría y la materia oscura (la partícula supersimétrica de menor masa en reposo) serán encontradas con gran probabilidad, del orden del 90%.

Continuará… o no.

Por cierto, si habéis llegado hasta aquí, no podéis dejar de leer Higgs 101 (y no os asustéis con el lagrangiano de la teoría electrodébil, el del Modelo Estándar completo es aún más complicado y no digamos el del Modelo Minimal Supersimétrica, la física teórica no es fácil).

Patatas crudas (izquierda) y fritas (derecha).

Los tejidos biológicos normalmente se clasifican en dos categorías: tejidos duros (p.ej. huesos) y blandos (p.ej. músculos, piel). Los tejidos blandos presentan comportamientos complicados de entender utilizando la teoría de la elasticidad para deformaciones finitas (grandes). ¿Cómo afecta el crecimiento (o decrecimiento) de estos tejidos “vivos” a sus propiedades elásticas? El artículo de Julien Dervaux and Martine Ben Amar, “Morphogenesis of Growing Soft Tissues,” Physical Review Letters, published 5 August 2008 , es una de las contribuciones recientes más interesantes en este campo.

Ilustración de la curvatura positiva (esfera), negativa (silla de montar) y nula (plano).

Cuando freimos una patata su tamaño cambia (pierde humedad y su área decrece), con lo que observamos que su curvatura media cambia, se comba; si el corte original era plano (curvatura nula), la patata frita final tiene una curvatura negativa (su área “aplanada” es mayor que la de un círculo plano del mismo radio). Este tipo de deformaciones elásticas debidas al crecimiento/decrecimiento del área del tejido blando, es decir, a fuerzas estrictamente internas y no a la aplicación de esfuerzos externos, tienen importantes consecuencias en biología, química y física.

Edward K. Rodriguez, Anne Hoger, and Andrew D. McCulloch, “Stress-dependent finite growth in soft elastic tissues,” Journal of Biomechanics, Volume 27, Issue 4, Pages 455-467, April 1994 , desarrollaron una explicación para estos fenómenos suponiendo tres hipótesis: (1) existe una estado de referencia sin esfuerzos; (2) el gradiente de deformación geométrica se puede descomponer en el producto de dos partes una inducida por el crecimiento que dependen del cambio de masa y otra estrictamente elástica caracterizada por una reorganiación del tejido para evitar auto-solapes y roturas; y (3) la función de respuesta del tejido depende sólo de la parte elástica de la deformación. Aunque el artículo ha sido muy citado (144 veces en Scopus), todavía no se ha demostrado fuera de toda discusión que sus hipótesis son las mínimas suficientes para entender este fenómeno.

Para estudiar la validez de la teoría de Rodriguez et al., Dervaux y Ben Amar han estudiado la aplicación de su teoría a un disco hiperelástico (con elasticidad no lineal) sujeto a crecimiento anisótropo homogéneo, obteniendo una variante de las conocidas ecuaciones de Föppl-von Kármán (FvK) para la elasticidad. Su estudio ha encontrado que hay dos soluciones estables posibles (con energía mínima) para dichas ecuaciones, una con curvatura negativa (figura a) y otra con curvatura nula en forma de cono (figura b), siendo las soluciones con curvatura positiva (no mostradas en la figura) y las que tienen curvatura nula pero son discos planos (tampoco mostradas) inestables bajo crecimiento, es decir, conforme crece el tejido estas soluciones sufren una transición hacia soluciones como las de las figuras a y b.

Dervaux y Ben Amar ilustran su estudio de estos procesos con el cambio de forma durante su crecimiento de las algas Acetabularia, muchas de las cuales empiezan creciendo con sus hojas en forma cóncava (sector de esfera con curvatura positiva) pero que tras cierto tiempo (más del 77%) sufren una transición hacia un disco plano (curvatura nula) y (más del 87%) sufre otra última transición hacia una forma tipo silla de montar con curvatura negativa. La figura de más abajo aparece en Kyle A. Serikawa and Dina F. Mandoli, “An analysis of morphogenesis of the reproductive whorl of Acetabularia acetabulum,” Planta, Volume 207, Number 1, noviembre de 1998 .

El proceso descrito por las ecuaciones FvK derivadas por Dervaux-Ben Amar es el que sufre una patata cortada en una rodaja plana cuando es frita, su masa decrece por deshidratación, con lo que su forma de disco plano se vuelve una solución inestable y se deforma con curvatura negativa hasta alcanzar una solución estable. Esta solución es la que estéticamente más nos gusta a todos para una patata frita, por eso, las Pringles de Procter & Gamble, que no son patatas fritas según el Tribunal Supremo británico debido a que contienen menos del 50% de patata, se fabrican con una “forma artificial” de curvatura negativa para luego ser perfectamente alineadas y superpuestas en un tubo, que por cierto le encanta a los niños. En mi casa compramos patatas fritas de “verdad” que introducimos dentro de un bote Pringles (de los cortos), ya que así le gustan más a mi hijo. ¡Cosas de críos!

Si te parece del interés para otros, Menéame.

Mientras algunos explican el funcionamiento del LHC a ritmo de rap, otros realizaron hacen unos días la primera prueba del haz de protones del LHC (como vemos en la imagen de abajo, el haz no está perfectamente calibrado aún, aunque un error de pocos milímetros en un haz que recorre 27 km parece pequeño, hay que corregirlo). En esta prueba el haz no recorrió los 27 km del LHC sino sólo una de las secciones (algo así como una cuarta parte). En septiembre se enviará un haz que recorra todo el tubo completo y empezaremos a tener los primeros resultados de las primeras colisiones.

http://lhc-injection-test.web.cern.ch/lhc-injection-test/

Llamadme Rapel. O mejor, llamadle Rapel a Didier Sornette. Geofísico que aplica técnicas de análisis de catastrófes al análisis de riesgos en economía, especializado en la detección de burbujas económicas.

Muchos se reían de la predicción realizada en este blog. Mi “apuesta” era que a principios de julio (mes pasado), el crudo empezaría a decrecer de precio. Muchos preveían a finales de junio un precio por encima de los 150$ el barril tras el verano, incluso se hablaba de que el petróleo “no había tocado techo y se podía alcanzar una cotización cercana a los 200 dólares en unos meses.” El artículo de Sornette, por el contrario, predecía una caída de precios para principios de junio. Yo, ya en junio, sin ninguna pista más que el propio artículo, predije una caída de precios a principios de julio, me parecía más razonable según las figuras del artículo que la predicha por el propio autor de las mismas. Como se muestra en http://www.oilnergy.com/1obrent.htm la primera semana de julio el crudo empezó a bajar, remontó en la segunda semana y volvió a bajar (como predecía el modelo de Sornette), y sigue bajando, y seguirá bajando. Ahora muchos ven “razonable” un petróleo a unos 110$ el barril para septiembre [noticia yahoo].

Mi predicción, en gran parte basada en la evolución prognóstica del modelo de Sornette, es que el petróleo volverá a un precio de 2 dígitos (unos 80$ el barril tras el verano, pongamos a finales de septiembre). Es una predicción arriesgada, nadie “apuesta” oficialmente por un retorno a los 2 dígitos. Si así ocurre, se ratificará que la burbuja de los precios del petróleo es estrictamente especulativa.

En mi opinión, la burbuja de los precios de las materias primas (por ejemplo, el oro también está decreciendo de precio) es debida a la despiadada búsqueda de beneficios por parte de los especuladores que “vivían” del mercado de las hipotecas “basura” y que buscaron en el mercado de futuros de las materias primas su “agosto”. Pero ha sido en agosto cuando se ha hecho insostenible que se vendieran en el mercado de futuros 4 veces el petróleo necesario para satisfacer la demanda y que los países de la OPEP tuviera beneficios en el primer semestre de este año comparables a los de todo el año pasado.

El que tenga blog y quiere mostrar “al mundo” la evolución del precio del crudo puede seguir las instrucciones en http://www.oil-price.net/dashboard.php.

Más sobre la burbuja del petróleo de 2006-2008 (otra predicción en junio).

Pero, “agarrémonos los machos.” Está bajando el crudo, está bajando el oro, está bajando el euro, ¿bajará el euríbor? Los que tenemos hipoteca no perdemos la esperanza.

Ya se predijo a finales de 2007 que “el euribor bajará hasta el 3,9% al final de 2008, según BBVA,” publicado el 18/10/2007 por Expansion.com. Sin embargo, quizás eran perspectivas “pre-crisis” mucho más optimistas de lo razonable. En julio de 2008, la opinión de los expertos es que “el Euribor cerraría julio en máximos históricos pero bajará a final de año, alcanzado un valor en diciembre de 2008 en torno al 5,15%.” Trichet ya lo anunció a principios del verano, tras las fuertes protestas por su subida de los tipos de gobiernos como el español, “no subirá más los tipos tras el verano.” Sus palabras no pararon la subida del euríbor, pero sus recientes declaraciones, ratificando que no los va a subir, parece que empiezan a hacer efecto sobre este índice de confianza para préstamos interbancarios, “Trichet propicia las mayores caídas del euribor en un mes,” publicado 08/08/2008 en Expansion.com. En mi opinión, aunque no he encontrado ningún modelo matemático predictivo de la evolución próxima del euribor, Trichet bajará los tipos tras el verano y la tendencia a la baja del euribor se mantendrá, al menos hasta finales de año. Espero que así sea, por la cuenta que me trae.

¿Realmente las palabras de Trichet (presidente del Banco Central Europeo) son tan importantes para predecir la evolución del euribor? Parece ser que así, al menos así lo afirman K. Bernoth and J. von Hagen, “The Euribor futures market: Efficiency and the impact of ECB policy announcements,” International Finance, Volume 7, Issue 1, Pages 1-24, March 2004 .

Charles Darwin murió de la enfermedad llamada Mal de Chagas causada por un parásito, un protozoo flagelado de membrana ondulante, un tripanosoma (Trypanosoma cruzi). Por supuesto, se trata de una hipótesis, sin análisis inmunológicos del cuerpo es imposible saberlo, pero parece que “padeció todos sus síntomas.” Ralph E. Bernstein, “Darwin’s illness: Chagas’ disease resurgens,” Journal of the Royal Society of Medicine Volume 77, pp. 608-609, July 1984 . La teoría fue originalmente propuesta por S. Adler, “Darwin’s Illness,” Nature, 184, 1102-1103, 10 October 1959 , quien descubrió que el cuadro clínico darwiniano -incluso la muerte- con los síntomas del ominoso Mal de Chagas, que transmite la vinchuca, y cuyo agente e un “tripanosoma”, parásito de la sangre, identificado en 1909 por el investigador brasileño Carlos Chagas, veintisiete años después del deceso de Darwin. La Teoría de la Evolución fue escrita por un Darwin que apenas lograba trabajar durante un máximo de tres o cuatro horas diarias, recostado en el sofá de su biblioteca y “sufriendo dolorosas molestias intestinales con mucha flatulencia, vómitos frecuentes e insomnio por las noches” [Taringa].

El Mal de Chagas es una enfermedad endémica en latinoamérica y afecta a más de 16 millones de personas todos los años (según la OMS). Afortunadamente, tiene cura. “Descubren cura para mal de chagas.” Un grupo de científicos venezolanos descubrió que una droga usada para combatir la arritmia cardíaca aniquila los parásitos que causan el Mal de Chagas, en concreto, “la combinación de amiodarona y posaconazol, que inhiben la síntesis del ergosterol y así el parásito no puede sobrevivir”, publicado en Gustavo Benaim et al., “Amiodarone Has Intrinsic Anti-Trypanosoma cruzi Activity and Acts Synergistically with Posaconazole,” J. Med. Chem., 49 (3), 892-899, 2006 . A los interesados en esta enfermedad les puede interesar el artículo Alfonso J. Rodríguez-Morales, “Nuevas perspectivas en el manejo terapéutico de la enfermedad de chagas,” Rev. Perú. Med. Exp. Salud Pública, v.22, n.2, abr./jun 2005 .

El genoma del Trypanosoma cruzi ya fue secuenciado, Najib M. El-Sayed et al. “The Genome Sequence of Trypanosoma cruzi, Etiologic Agent of Chagas Disease,” Science, Vol. 309. no. 5733, pp. 409-415, 15 July 2005 , donde se estima que su genoma tiene 60.372.297 de pares de bases, con unos 22.570 genes codificadores de proteínas. En ProtozoaDB se puede acceder a dicho genoma y visualizar con herramientas bioinformáticas (Alberto M. R. Dávila et al., “ProtozoaDB: dynamic visualization and exploration of protozoan genomes,” Nucleic Acids Research, 36:D547-D552, 2008 [gratis]. )

A los interesados en viajar a Venezuela les disgustará saber que todavía no se conoce una vacuna para la Enfermedad de Chagas en humanos (aunque sí en perros). También les gustará saber que la enfermedad es incómoda, pero no mata, al menos, bicho malo nunca muere.

La NASA y la enfermedad de Chagas, ¿qué tiene que ver la cristalización de proteínas y un parásito sanguíneo?

La enfermedad de Chagas no es considerada “exótica” en EEUU y Europa. El mal de Chagas, una enfermedad parasitaria que puede causar la muerte de sus víctimas décadas después de haberse infectado(poco fiable es de 20minutos).

Pilar Mateo, una valenciana dedicada a enfermedades de los pobres, como el mal de chagas o el dengue. Ya que según ella “las mujeres también investigan.”

Los retos del Mal de Chagas: ¿Sombrío panorama o un asomo de esperanza?

CÉSAR

Aquí lo que dejaron los puñales. Aquí esa pobre cosa, un hombre muerto que se llamaba César. Le han abierto cráteres en la carne de los metales.

Aquí la atroz, aquí la detenida máquina usada ayer para la gloria, para escribir y ejecutar la historia y para el goce pleno de la vida.

Aquí también el otro, aquel prudente emperador que declinó laureles, que comandó batallas y bajeles

y que rigió el oriente y el poniente. Aquí también el otro, el venidero cuya gran sombra será el orbe entero.

Jorge Luis Borges

Peter Sarnak, de la Princeton University, uno de los editores de la revista “Annals of Mathematics,” afirma que continuamente tiene unas 10 “demostraciones” de la hipótesis de Riemann en revisión. Quizás no sea sorprendente, ya que está considerado el problema no resuelto más importante de toda la matemática, desde que fue propuesto en 1859. El Instituto de Matemáticas Clay, en Cambridge, Massachusetts, premiará con 1 millón de dólares a quien pruebe dicha hipótesis (aunque si alguien encuentra un contraejemplo, con lo que la hipótesis será falsa, no recibirá ni un sólo céntimo).

Sobre uno de los “candidatos” con más bazas bajo la manga, Louis de Branges, de la Purdue University en Indiana, y su alumno Xian-Jin Li, ya hablamos en este blog. Pero, ¿por qué es tan importante la hipótesis de Riemann? Según Sarnak, hay miles de teoremas publicados que empiezan “Supongamos que es válida la hipótesis de Riemann…” Si la hipótesis es falsa, algo que poca gente cree, decenas de miles de páginas de matemática publicada en revistas internacionales se reducirá a pura “bazofia.”

La hipótesis de Riemann trata sobre la distribución de los ceros (no triviales) de cierta función que está relacionada con la “densidad” de los números primos. Mediante ordenadores se ha verificado la hipótesis para los primeros miles de millones de ceros. La mayoría de loa matemáticos no pueden ni siquiera pensar que no sea verdad. Según Sarnak, simplemente, “tiene que ser verdad”.

Si eres matemático y te interesa leer la última “versión” de la demostración de Louis de Branges la tienes aquí “RIEMANN ZETA FUNCTIONS.”

Si eres matemático especializado en Teoría Analítica de Números disfrutarás con las “falsas pruebas” de la página “proposed (dis)proofs of the Riemann Hypothesis.” Incluye la demostración de de Branges como incorrecta aludiendo a argumentos en su contra por parte de Li, pero éste ya ha corregido dichos “fallos.” La prueba está actualmente en revisión en “Annals of Mathematics”. ¿La logrará publicar alguna vez de Branges o sus alumnos?

La “apología” del propio de Branges en la que “defiende” su prueba ante sus detractores, merece la pena leerla (su biografía al final del documento es realmente curiosa).