Patatas crudas (izquierda) y fritas (derecha).

Los tejidos biológicos normalmente se clasifican en dos categorías: tejidos duros (p.ej. huesos) y blandos (p.ej. músculos, piel). Los tejidos blandos presentan comportamientos complicados de entender utilizando la teoría de la elasticidad para deformaciones finitas (grandes). ¿Cómo afecta el crecimiento (o decrecimiento) de estos tejidos “vivos” a sus propiedades elásticas? El artículo de Julien Dervaux and Martine Ben Amar, “Morphogenesis of Growing Soft Tissues,” Physical Review Letters, published 5 August 2008 , es una de las contribuciones recientes más interesantes en este campo.

Ilustración de la curvatura positiva (esfera), negativa (silla de montar) y nula (plano).

Cuando freimos una patata su tamaño cambia (pierde humedad y su área decrece), con lo que observamos que su curvatura media cambia, se comba; si el corte original era plano (curvatura nula), la patata frita final tiene una curvatura negativa (su área “aplanada” es mayor que la de un círculo plano del mismo radio). Este tipo de deformaciones elásticas debidas al crecimiento/decrecimiento del área del tejido blando, es decir, a fuerzas estrictamente internas y no a la aplicación de esfuerzos externos, tienen importantes consecuencias en biología, química y física.

Edward K. Rodriguez, Anne Hoger, and Andrew D. McCulloch, “Stress-dependent finite growth in soft elastic tissues,” Journal of Biomechanics, Volume 27, Issue 4, Pages 455-467, April 1994 , desarrollaron una explicación para estos fenómenos suponiendo tres hipótesis: (1) existe una estado de referencia sin esfuerzos; (2) el gradiente de deformación geométrica se puede descomponer en el producto de dos partes una inducida por el crecimiento que dependen del cambio de masa y otra estrictamente elástica caracterizada por una reorganiación del tejido para evitar auto-solapes y roturas; y (3) la función de respuesta del tejido depende sólo de la parte elástica de la deformación. Aunque el artículo ha sido muy citado (144 veces en Scopus), todavía no se ha demostrado fuera de toda discusión que sus hipótesis son las mínimas suficientes para entender este fenómeno.

Para estudiar la validez de la teoría de Rodriguez et al., Dervaux y Ben Amar han estudiado la aplicación de su teoría a un disco hiperelástico (con elasticidad no lineal) sujeto a crecimiento anisótropo homogéneo, obteniendo una variante de las conocidas ecuaciones de Föppl-von Kármán (FvK) para la elasticidad. Su estudio ha encontrado que hay dos soluciones estables posibles (con energía mínima) para dichas ecuaciones, una con curvatura negativa (figura a) y otra con curvatura nula en forma de cono (figura b), siendo las soluciones con curvatura positiva (no mostradas en la figura) y las que tienen curvatura nula pero son discos planos (tampoco mostradas) inestables bajo crecimiento, es decir, conforme crece el tejido estas soluciones sufren una transición hacia soluciones como las de las figuras a y b.

Dervaux y Ben Amar ilustran su estudio de estos procesos con el cambio de forma durante su crecimiento de las algas Acetabularia, muchas de las cuales empiezan creciendo con sus hojas en forma cóncava (sector de esfera con curvatura positiva) pero que tras cierto tiempo (más del 77%) sufren una transición hacia un disco plano (curvatura nula) y (más del 87%) sufre otra última transición hacia una forma tipo silla de montar con curvatura negativa. La figura de más abajo aparece en Kyle A. Serikawa and Dina F. Mandoli, “An analysis of morphogenesis of the reproductive whorl of Acetabularia acetabulum,” Planta, Volume 207, Number 1, noviembre de 1998 .

El proceso descrito por las ecuaciones FvK derivadas por Dervaux-Ben Amar es el que sufre una patata cortada en una rodaja plana cuando es frita, su masa decrece por deshidratación, con lo que su forma de disco plano se vuelve una solución inestable y se deforma con curvatura negativa hasta alcanzar una solución estable. Esta solución es la que estéticamente más nos gusta a todos para una patata frita, por eso, las Pringles de Procter & Gamble, que no son patatas fritas según el Tribunal Supremo británico debido a que contienen menos del 50% de patata, se fabrican con una “forma artificial” de curvatura negativa para luego ser perfectamente alineadas y superpuestas en un tubo, que por cierto le encanta a los niños. En mi casa compramos patatas fritas de “verdad” que introducimos dentro de un bote Pringles (de los cortos), ya que así le gustan más a mi hijo. ¡Cosas de críos!

Si te parece del interés para otros, Menéame.

Mientras algunos explican el funcionamiento del LHC a ritmo de rap, otros realizaron hacen unos días la primera prueba del haz de protones del LHC (como vemos en la imagen de abajo, el haz no está perfectamente calibrado aún, aunque un error de pocos milímetros en un haz que recorre 27 km parece pequeño, hay que corregirlo). En esta prueba el haz no recorrió los 27 km del LHC sino sólo una de las secciones (algo así como una cuarta parte). En septiembre se enviará un haz que recorra todo el tubo completo y empezaremos a tener los primeros resultados de las primeras colisiones.

http://lhc-injection-test.web.cern.ch/lhc-injection-test/

Llamadme Rapel. O mejor, llamadle Rapel a Didier Sornette. Geofísico que aplica técnicas de análisis de catastrófes al análisis de riesgos en economía, especializado en la detección de burbujas económicas.

Muchos se reían de la predicción realizada en este blog. Mi “apuesta” era que a principios de julio (mes pasado), el crudo empezaría a decrecer de precio. Muchos preveían a finales de junio un precio por encima de los 150$ el barril tras el verano, incluso se hablaba de que el petróleo “no había tocado techo y se podía alcanzar una cotización cercana a los 200 dólares en unos meses.” El artículo de Sornette, por el contrario, predecía una caída de precios para principios de junio. Yo, ya en junio, sin ninguna pista más que el propio artículo, predije una caída de precios a principios de julio, me parecía más razonable según las figuras del artículo que la predicha por el propio autor de las mismas. Como se muestra en http://www.oilnergy.com/1obrent.htm la primera semana de julio el crudo empezó a bajar, remontó en la segunda semana y volvió a bajar (como predecía el modelo de Sornette), y sigue bajando, y seguirá bajando. Ahora muchos ven “razonable” un petróleo a unos 110$ el barril para septiembre [noticia yahoo].

Mi predicción, en gran parte basada en la evolución prognóstica del modelo de Sornette, es que el petróleo volverá a un precio de 2 dígitos (unos 80$ el barril tras el verano, pongamos a finales de septiembre). Es una predicción arriesgada, nadie “apuesta” oficialmente por un retorno a los 2 dígitos. Si así ocurre, se ratificará que la burbuja de los precios del petróleo es estrictamente especulativa.

En mi opinión, la burbuja de los precios de las materias primas (por ejemplo, el oro también está decreciendo de precio) es debida a la despiadada búsqueda de beneficios por parte de los especuladores que “vivían” del mercado de las hipotecas “basura” y que buscaron en el mercado de futuros de las materias primas su “agosto”. Pero ha sido en agosto cuando se ha hecho insostenible que se vendieran en el mercado de futuros 4 veces el petróleo necesario para satisfacer la demanda y que los países de la OPEP tuviera beneficios en el primer semestre de este año comparables a los de todo el año pasado.

El que tenga blog y quiere mostrar “al mundo” la evolución del precio del crudo puede seguir las instrucciones en http://www.oil-price.net/dashboard.php.

Más sobre la burbuja del petróleo de 2006-2008 (otra predicción en junio).

Pero, “agarrémonos los machos.” Está bajando el crudo, está bajando el oro, está bajando el euro, ¿bajará el euríbor? Los que tenemos hipoteca no perdemos la esperanza.

Ya se predijo a finales de 2007 que “el euribor bajará hasta el 3,9% al final de 2008, según BBVA,” publicado el 18/10/2007 por Expansion.com. Sin embargo, quizás eran perspectivas “pre-crisis” mucho más optimistas de lo razonable. En julio de 2008, la opinión de los expertos es que “el Euribor cerraría julio en máximos históricos pero bajará a final de año, alcanzado un valor en diciembre de 2008 en torno al 5,15%.” Trichet ya lo anunció a principios del verano, tras las fuertes protestas por su subida de los tipos de gobiernos como el español, “no subirá más los tipos tras el verano.” Sus palabras no pararon la subida del euríbor, pero sus recientes declaraciones, ratificando que no los va a subir, parece que empiezan a hacer efecto sobre este índice de confianza para préstamos interbancarios, “Trichet propicia las mayores caídas del euribor en un mes,” publicado 08/08/2008 en Expansion.com. En mi opinión, aunque no he encontrado ningún modelo matemático predictivo de la evolución próxima del euribor, Trichet bajará los tipos tras el verano y la tendencia a la baja del euribor se mantendrá, al menos hasta finales de año. Espero que así sea, por la cuenta que me trae.

¿Realmente las palabras de Trichet (presidente del Banco Central Europeo) son tan importantes para predecir la evolución del euribor? Parece ser que así, al menos así lo afirman K. Bernoth and J. von Hagen, “The Euribor futures market: Efficiency and the impact of ECB policy announcements,” International Finance, Volume 7, Issue 1, Pages 1-24, March 2004 .

Charles Darwin murió de la enfermedad llamada Mal de Chagas causada por un parásito, un protozoo flagelado de membrana ondulante, un tripanosoma (Trypanosoma cruzi). Por supuesto, se trata de una hipótesis, sin análisis inmunológicos del cuerpo es imposible saberlo, pero parece que “padeció todos sus síntomas.” Ralph E. Bernstein, “Darwin’s illness: Chagas’ disease resurgens,” Journal of the Royal Society of Medicine Volume 77, pp. 608-609, July 1984 . La teoría fue originalmente propuesta por S. Adler, “Darwin’s Illness,” Nature, 184, 1102-1103, 10 October 1959 , quien descubrió que el cuadro clínico darwiniano -incluso la muerte- con los síntomas del ominoso Mal de Chagas, que transmite la vinchuca, y cuyo agente e un “tripanosoma”, parásito de la sangre, identificado en 1909 por el investigador brasileño Carlos Chagas, veintisiete años después del deceso de Darwin. La Teoría de la Evolución fue escrita por un Darwin que apenas lograba trabajar durante un máximo de tres o cuatro horas diarias, recostado en el sofá de su biblioteca y “sufriendo dolorosas molestias intestinales con mucha flatulencia, vómitos frecuentes e insomnio por las noches” [Taringa].

El Mal de Chagas es una enfermedad endémica en latinoamérica y afecta a más de 16 millones de personas todos los años (según la OMS). Afortunadamente, tiene cura. “Descubren cura para mal de chagas.” Un grupo de científicos venezolanos descubrió que una droga usada para combatir la arritmia cardíaca aniquila los parásitos que causan el Mal de Chagas, en concreto, “la combinación de amiodarona y posaconazol, que inhiben la síntesis del ergosterol y así el parásito no puede sobrevivir”, publicado en Gustavo Benaim et al., “Amiodarone Has Intrinsic Anti-Trypanosoma cruzi Activity and Acts Synergistically with Posaconazole,” J. Med. Chem., 49 (3), 892-899, 2006 . A los interesados en esta enfermedad les puede interesar el artículo Alfonso J. Rodríguez-Morales, “Nuevas perspectivas en el manejo terapéutico de la enfermedad de chagas,” Rev. Perú. Med. Exp. Salud Pública, v.22, n.2, abr./jun 2005 .

El genoma del Trypanosoma cruzi ya fue secuenciado, Najib M. El-Sayed et al. “The Genome Sequence of Trypanosoma cruzi, Etiologic Agent of Chagas Disease,” Science, Vol. 309. no. 5733, pp. 409-415, 15 July 2005 , donde se estima que su genoma tiene 60.372.297 de pares de bases, con unos 22.570 genes codificadores de proteínas. En ProtozoaDB se puede acceder a dicho genoma y visualizar con herramientas bioinformáticas (Alberto M. R. Dávila et al., “ProtozoaDB: dynamic visualization and exploration of protozoan genomes,” Nucleic Acids Research, 36:D547-D552, 2008 [gratis]. )

A los interesados en viajar a Venezuela les disgustará saber que todavía no se conoce una vacuna para la Enfermedad de Chagas en humanos (aunque sí en perros). También les gustará saber que la enfermedad es incómoda, pero no mata, al menos, bicho malo nunca muere.

La NASA y la enfermedad de Chagas, ¿qué tiene que ver la cristalización de proteínas y un parásito sanguíneo?

La enfermedad de Chagas no es considerada “exótica” en EEUU y Europa. El mal de Chagas, una enfermedad parasitaria que puede causar la muerte de sus víctimas décadas después de haberse infectado(poco fiable es de 20minutos).

Pilar Mateo, una valenciana dedicada a enfermedades de los pobres, como el mal de chagas o el dengue. Ya que según ella “las mujeres también investigan.”

Los retos del Mal de Chagas: ¿Sombrío panorama o un asomo de esperanza?

CÉSAR

Aquí lo que dejaron los puñales. Aquí esa pobre cosa, un hombre muerto que se llamaba César. Le han abierto cráteres en la carne de los metales.

Aquí la atroz, aquí la detenida máquina usada ayer para la gloria, para escribir y ejecutar la historia y para el goce pleno de la vida.

Aquí también el otro, aquel prudente emperador que declinó laureles, que comandó batallas y bajeles

y que rigió el oriente y el poniente. Aquí también el otro, el venidero cuya gran sombra será el orbe entero.

Jorge Luis Borges

Peter Sarnak, de la Princeton University, uno de los editores de la revista “Annals of Mathematics,” afirma que continuamente tiene unas 10 “demostraciones” de la hipótesis de Riemann en revisión. Quizás no sea sorprendente, ya que está considerado el problema no resuelto más importante de toda la matemática, desde que fue propuesto en 1859. El Instituto de Matemáticas Clay, en Cambridge, Massachusetts, premiará con 1 millón de dólares a quien pruebe dicha hipótesis (aunque si alguien encuentra un contraejemplo, con lo que la hipótesis será falsa, no recibirá ni un sólo céntimo).

Sobre uno de los “candidatos” con más bazas bajo la manga, Louis de Branges, de la Purdue University en Indiana, y su alumno Xian-Jin Li, ya hablamos en este blog. Pero, ¿por qué es tan importante la hipótesis de Riemann? Según Sarnak, hay miles de teoremas publicados que empiezan “Supongamos que es válida la hipótesis de Riemann…” Si la hipótesis es falsa, algo que poca gente cree, decenas de miles de páginas de matemática publicada en revistas internacionales se reducirá a pura “bazofia.”

La hipótesis de Riemann trata sobre la distribución de los ceros (no triviales) de cierta función que está relacionada con la “densidad” de los números primos. Mediante ordenadores se ha verificado la hipótesis para los primeros miles de millones de ceros. La mayoría de loa matemáticos no pueden ni siquiera pensar que no sea verdad. Según Sarnak, simplemente, “tiene que ser verdad”.

Si eres matemático y te interesa leer la última “versión” de la demostración de Louis de Branges la tienes aquí “RIEMANN ZETA FUNCTIONS.”

Si eres matemático especializado en Teoría Analítica de Números disfrutarás con las “falsas pruebas” de la página “proposed (dis)proofs of the Riemann Hypothesis.” Incluye la demostración de de Branges como incorrecta aludiendo a argumentos en su contra por parte de Li, pero éste ya ha corregido dichos “fallos.” La prueba está actualmente en revisión en “Annals of Mathematics”. ¿La logrará publicar alguna vez de Branges o sus alumnos?

La “apología” del propio de Branges en la que “defiende” su prueba ante sus detractores, merece la pena leerla (su biografía al final del documento es realmente curiosa).

Siempre se dijo que las manchas que imitan “ojos” en las alas de las mariposas eran para asustar a sus posibles predadores haciéndoles creer que la mariposa es un animal más grande de lo que realmente es. Sin embargo, descubrimientos recientes parecen indicar que no es así, sólo sirven para “llamar la atención.”

Martin Stevens de la University of Cambridge y sus colaboradores colocaron falsas mariposas con diferentes dibujos en sus alas en un bosque y observaron todos los ataques de pájaros que recibieron. Si los falsos ojos sirven para asustar a sus predadores, los investigadores esperaban que las mariposas con falsos ojos en las alas serían atacadas menos que las demás. Sin embargo, las mariposas con manchas alares en forma de ojo no sobrevivían más que las que tenían marcas con otras formas. SIn embargo, lo que han encontrado los investigadores es que las mariposas con marcas más grandes (tengan o no forma de ojos) sufrían un 30% menos de ataques. Los investigadores concluyen que las mariposas que más llaman la atención son las menos atacadas. Las manchas alares parece que tienen el objetivo de llamar la atención y no simular un mayor tamaño con fines disuasorios.

Los resultados se han publicado en el artículo de Martin Stevens, Chloe J. Hardman, and Claire L. Stubbins, “Conspicuousness, not eye mimicry, makes “eyespots” effective antipredator signals,” Behavioral Ecology, 19: 525-531, May-June 2008 . “Los predadores tienden a alejarse de las presas que llaman mucho la atención, quizás porque la mayoría de los objetos que llaman mucho la atención en la Naturaleza son tóxicos,” se atreve a afirmar el Dr. Stevens. “Creemos que esa es la función principal de las manchas alares.”

Menéame.

Quién la tiene más larga… la lista de publicaciones, no seáis mal pensados, y quién los tiene más grandes… los índices de impacto de las revistas de sus publicaciones, ¡qué mal pensados sois! Sin embargo, así es como nos miden en el sistema universitario español.

Cada seis años hay que superar una evaluación a nivel nacional sobre la calidad del trabajo investigador (para obtener un pequeño complemento económico llamado sexenios). Hay que destacar 5 publicaciones dentro de nuestro curriculum vitae, las “mejores,” pero en función de qué, de su calidad científica, de lo que nosotros mismos pensemos, … no, ni mucho menos. El autor NO debe decidir cuáles son sus mejores publicaciones. Hay que utilizar “índices de calidad” establecidos. En concreto, que las revistas se encuentren en el JCR del ISI en los primeros puestos. De hecho, se rumorea (no está publicado el criterio) que conceden 3 puntos por una publicación en un revista cuyo índice de impacto se encuentre en el primer tercio, 2 puntos en el segundo y sólo 1 punto en el último tercio.

¿Se puede medir la calidad científica del trabajo de un investigador utilizando sólo “numeritos,” bueno, medidas bibliométricas de “probada” validez estadística? La Unión Matemática Internacional (International Mathematical Union, IMU) acaba de publicar el informe específico sobre este tema “Citation Statistics,” Joint Committee on Quantitative Assessment of Research Citation Statistics, IMU-ICIAM-IMS, corrected version, 12 June 2008 . El informe se resume en una simple frase “Numbers are not inherently superior to sound judgments” (los números no son mejores que un juicio razonable).

Entre las conclusiones del informe me gustaría destacar tres. : (1) usar el índice de impacto de una revista como única medida para valorar una revista es como usar el peso corporal como única medida para medir la salud de una persona; (2) usar el índice de impacto de la revista en la que se publica un artículo, en lugar del número real de citas que ha recibido, es un uso “malintencionado” de dicho índice; y (3) usar un único número (como el índice-h) para resumir el C.V. de un científico, es perder información esencial necesaria para juzgar su trabajo, y sólo beneficia a la agencia evaluadora, que puede sustituir científicos (evaluación por pares) por meros funcionarios (que sepan contar índices de impacto).

El informe está escrito por especialistas en Estadística, quienes afirman que la mayoría de los índices bibliométricos al uso (índice-h y variantes, número de citas, índice de impacto de revistas, etc.) no han sido suficientemente estudiados ni son suficientemente entendidos. Faltan estudios que correlacionen las opiniones de expertos (muy costosas de obtener) con los resultados “fríos” de dichos números. Las comparaciones de tipo una medida numérica versus otras medidas numéricas (la experimentación “barata”) no permite obtener conclusiones fiables ni una interpretación estadística rigurosa (según los especialistas autores del informe).

El factor de impacto como ranking para revistas

El factor de impacto (F.I.) de una revista es un número “fácil” de calcular. Si una revista tiene un F.I. de 1.5 en 2007 significa que el número “medio” de citas de sus artículos publicados en los años 2005 y 2006 citados en todas las revistas indexadas en el JCR en 2007 es de 1.5. ¿Influye la “ventana” de sólo 2 años? En campos muy “calientes” como las Ciencias Biomédicas, 2 años es más que suficiente. En campos como las Matemáticas, más del 90% de las citas a una revista se realizan con más de 2 años (es decir, en Matemáticas el F.I. sólo “ve” el 10% de la actividad investigadora). Sin embargo, los estudios desarrollados por Thomson Scientific con ventanas de 2, 5 y 10 años indican que el F.I. resultando cambia “poco” en función de la “ventana” usada (salvo para algunas pocas revistas).

Por otro lado, el F.I. cambia muchísimo de una disciplina a otra. En Ciencias de la VIda el número medio de citas de un artículo es mayor de 6. Sin embargo, en Matemáticas e Informática no llega a 1. Más aún, el F.I. también cambia “mucho” de un año a otro, sobre todo en la banda “media” (las revistas en el segundo tercio). Si enviamos un artículo a una revista sólo por su índice de impacto (del año pasado) y dicho artículo se publica el año próximo, con lo que tendrá índice de impacto conocido dentro de dos años, puede que nos llevemos una gran sorpresa, ya que puede haber cambiado “muchos” puestos en la clasificación en su área. ¿Cuál es el F.I. relevante? El de la revista cuando enviamos el artículo. El de la revista cuando sale publicado el artículo. El del año en curso para dicha revista. ¡Pueden variar mucho entre sí!

El número de citas y los índices bibliométricos “de moda”

Parece claro que el número de citas es un buen indicativo de la calidad de un artículo, aunque no todas las citas son iguales. Las hay “de relleno”, “críticas”, “negativas”, “positivas”, “retóricas,” etc. Pero, ¿por qué un investigador cita a unos y no a otros? Como pasa en muchos campos de las ciencias sociales y en humanidades, nadie sabe la respuesta. La sociología de las citas es un tópico muy complejo y los estudios empíricos son extremadamente difíciles (hay que “meterse” en la “mente” del citador). Por ejemplo, un estudio de Cozzens (citado en el informe) sobre 3 millones de citas indica que el 30% lo son a libros (que “explican” las cosas) y no a los artículos originales. Muchas de ellas son “retóricas”.

De todas formas, parece bastante “establecido” que para evaluar la producción de un investigador necesitamos conocer la distribución de todas las citas a sus artículos, así como las distribuciones promedio de las citas en cada una de las áreas de dichos artículos, con objeto de decidir si el investigador está “en media”, es “mejor” que la media o es “peor.”

Desde hace unos pocos años se ha puesto de moda desarrollar nuevos índices bibliométricos que simplifiquen esta labor, reduciendo este análisis estadístico a un sólo número “representativo.” Hay muchos: índice-h, índice-m, índice-g, etc., no entraré en más detalles. Tomemos dos investigadores con índice-h igual a 10. Uno tiene 10 artículos citados más de 10 veces cada uno, nada más. El otro tiene 100 artículos, 10 con más de 10 citas y 90 con menos de 10 citas. ¿Cuál de los dos investigadores es mejor? ¿Cuál es más productivo? ¿Cuál produce artículos de mayor calidad? Por supuesto, dentro de 5 años es de esperar que el segundo supere al primero en índice-h, ¿o no?

La lectura del informe merece la pena y por ello te la recomiendo, sobre todo si eres investigador, aunque no trabajes en Matemáticas. Permitidme una frase como epílogo, visión “sesgada” de una que aparece en el informe: “La evaluación de la calidad de un investigador se debe realizar con un espíritu de colaboración, en lugar de confrontación, nunca con el objetivo de criticar.”

Si crees que esta noticia es interesante para otros, Menéala.

¿Que el explorador Phoenix ha “tocado” agua en Marte es una noticia? No, la noticia es que la haya “tocado” tan tarde. Le ha costado demasiado, como nos recuerda Richard A. Kerr, “Phoenix’s Water May Be Gumming Up the Works,” Science, vol. 321. no. 5890, p. 758, 8 August 2008 . Fue un éxito su aterrizaje (por cierto con hardware y software de la “fallecida” Mars Polar Lander), lo ha sido su intrumentación (que funciona correctamente y ha encontrado que el suelo marciano es alcalino y no ácido, como se creía), y lo ha sido que encontrara hielo (aunque las observaciones orbitales indican que la Phoenix está rodeada de hielo por doquier). Pero, ¿para qué se envió la Phoenix a Marte? Para encontrar señales inequívocas de que la vida fue posible en el pasado geológico marciano. ¿Las ha encontrado? No, todavía no. ¿Hay esperanza? Según R.A. Kerr, desafortunadamente, no.

En los 1970s, las dos Viking confirmaron que en el polo norte marciano había agua helada (H.H. Kieffer et al. “Martian North Pole Summer Temperatures: Dirty Water Ice,” Science, vol. 194, no. 4271, pp. 1341-1344, 17 December 1976, gracias a las observaciones térmicas y de reflectancia) y que en el polo sur había fundamentalmente dióxido de carbono helado (H.H. Kieffer, “Mars south polar spring and summer temperatures. A residual CO2 frost,” J. Geophys. Res., vol. 84, pp. 8263-8288, 1979), más recientemente también se ha encontrado agua. El agua que encontraron las Viking en Marte estaba “sucia” pero no se pudo determinar exactamente qué la ensuciaba.

Una de las misiones de la Phoenix es analizar la “suciedad” del hielo que se encuentra en el suelo marciano en busca de materiales orgánicos. Entonces, ¿por qué le ha costado tanto “tocar” hielo marciano? La Phoenix ha tenido problemas con su Analizador TEGA (Thermal and Evolved-Gas Analyzer). El brazo robótico introduce una muestra de tierra marciana en una pantalla, se procede a removerla para separar la “suciedad” de la tierra, y luego se introduce ésta en la celda de muestras de la TEGA. Sin embargo, todo ha sido más complicado de lo esperado. Los científicos han tenido que vibrar la pantalla muchas veces durante varios días con objeto de conseguir que se rellenara la celda de muestras. Nadie sabe el porqué ha costado tanto (palabras de uno de los encargados del “meneo,” Douglas Ming del NASA’s Johnson Space Center, de Houston, Texas). Las ideas tratando de explicarlo “rebosan” las mentes de los técnicos. Por ejemplo, quizás las partículas más finas se cargan electroestáticamente, triboeléctricamente, como cuando nos da una descarga la puerta del coche tras habernos cargado por frotamiento entre nuestra ropa y el asiento. No se conoce la respuesta, aún.

La presión sobre las “cabezas” de los científicos encargados de la misión es muy grande. De hecho, algunas de las vibraciones de la pantalla del analizador TEGA, aparentemente, causaron un cortocircuito eléctrico, lo que hizo pensar a algunos científicos que el próximo análisis con la TEGA podría ser el último. Por ello, decidieron ir a lo fácil, “tocar” hielo de agua “sucio” recogido a 5 cm de profundidad. Quizás pudiesen encontrar alguna materia orgánica preservada en dicho hielo. Pero ha costado muchos días, casi 30, un tercio de la misión planificada originalmente, lograrlo. Lo que debería haber sido “trivial” ha costado muchísimo. ¿Y qué es lo que ha encontrado el TEGA? Nada, ninguna señal de restos orgánicos. El experimento se repitió, según el investigador Raymond Arvidson, de la Washington University en St. Louis, Missouri, con más vibraciones (meneos) y tampoco encontramos nada. “De todas las cosas que pensamos que podrían ir mal, esta era la menos esperada.”

¿Por qué ha sido todo “tan difícil”? ¿Por qué ha costado tanto? Nadie lo sabe. Quizás están afectando los grandes cambios de temperatura que sufren las muestras durante el “meneo” de varios días (en las pruebas previas en la Tierra no se sometió a TEGA a cambios térmicos tan drásticos). ¿Tendrían que haber hecho pruebas más “rigurosas” en la Tierra antes de enviar la Phoenix camino de Marte?

“¡Qué pena que hayamos necesitado 30 días para sólo “tocar” hieo!” se lamenta Arvidson. Quedan 6 células de muestras de la TEGA por usar, cada una requiere unos 7 días (terrestres) de trabajo. NASA ha prolongado la misión 30 días más. Hay tiempo suficiente. “Todavía queda mucho trabajo para nosotros” según Arvidson. ¿Podrán resolver el misterio que envuelve el análisis de las muestras y desde Tierra realizar las correcciones que logren que los próximos análisis sean todo un éxito? Muchachos, está en vuestras manos. Ánimo.

Si consideras que la noticia puede interesar a otros, Menéame.

Dibujo2009JuanMaldacena
Juan Maldacena

Ahora que los físicos de cuerdas están con la cabeza “gacha” añorando los tiempos en los que eran los “dioses” de la física, los dueños del “cotarro,” maldiciendo por lo “bajini” al descubridor del problema del landscape, ya hemos hablado de ello [Witten’s dog, Smolin’s evil, Schubert’s string-inspired math], la esperanza se ve al final del camino de la mano del “maldecido” Juan Maldacena (argentino al que parece que muchos le tienen envidia, no en balde “subió como la espuma” por una “mera” conjetura).

El joven Shamit Kachru (Ph.D. en 1990, pero en física de cuerdas se necesitan muchos años para ser experto)nos comenta por “donde van los tiros” en teoría de cuerdas en “Glimmers of a connection between string theory and atomic physics,” Physics 1, 10, published August 4, 2008 . El gran número de herramientas matemáticas desarrolladas en el marco de la teoría de cuerdas empiezan a ser de “obligado” conocimiento para los físicos en materia condensada, sistemas atómicos ultrafríos, física de las transiciones de fase y física del estado sólido. Ya le tocó el turno a los diagramas de Feynman (1949) durante los 1970s (actualmente “todo físico” debe conocerlos). Ahora empezamos a ver que las técnicas de teorías de campos conformes en espacios de anti-de Sitter, sus branas, y las técnicas no perturbativas asociadas, empiezan a aparecer en artículos de física en materia condensada y física atómica. Si trabajas en estos temas, no pierdas la oportunidad y “apúntate al carro.”

Gabriele Veneziano

Nos han “vendido” la teoría de cuerdas como la mejor vía posible para la unificación de la gravedad y la mecánica cuántica. Sin embargo, en sus inicios fue propuesta por Gabriele Veneziano como modelo para describir la interacción fuerte que gobierna a los quarks dentro de los hadrones (protón, neutrón, etc.). En esta línea recomiendo su conferencia en el KITP “The Beginning of String Theory or: How Nature Deceived Us in the Sixties.” La idea era simple ¿por qué no observamos a los quarks como partículas individuales? Porque cada pareja de quarks están en los extremos de una cuerda que los une, de tal forma que si aumentamos la energía para separarlos, la cuerda se rompe y tenemos dos cuerdas y cuatro quarks. Esta explicación del confinamiento ha sido superada por la moderna teoría de los quarks, la Cromodinámica Cuántica (QCD), aunque no sin ciertas dificultades (los cálculos exactos del confinamiento son extremadamente complicados).

Ya en sus inicios destacaba la propiedad más interesante de la fuerza fuerte y de la teoría de cuerdas. La fuerza es fuerte sólo a baja energía. A distancias muy cortas o muy alta energía, la llamada libertad asintótica, permite que los quarks parezcan “libres” de fuerza alguna (aunque se encuentren confinados) y desde el punto de vista matemático utilizar técnicas de perturbaciones en la teoría fuertemente acoplada. las técnicas de dualidad, relación o simetría entre una teoría a baja energía fuertemente acoplada y una teoría a alta energía débilmente acoplada, son fundamentales en teoría de cuerdas. De hecho, la teoría “efectiva” a alta energía, débilmente acoplada, asociada a la QCD es una teoría cuyos objetos fundamentales son cuerdas en lugar de partículas puntuales.

Dam Thanh Son

El interés reciente en aplicar este tipo de técnicas en física de la materia condensada parte de dos artículos que se acaban de publicar: D. T. Son, “Toward an AdS/cold atoms correspondence: A geometric realization of the Schrödinger symmetry,” Phys. Rev. D. 78, 046003, published August 04, 2008 [versión gratis] y K. Balasubramanian, J. McGreevy, “Gravity Duals for Nonrelativistic Conformal Field Theories,” Phys. Rev. Lett. 101, 061601, published August 04, 2008 [versión gratis], en los que se presentan conexiones entre teorías de campo no relativistas invariantes a transformaciones de escala (como los fractales) y ciertos aspectos de la teoría de cuerdas, con aplicaciones a gases de átomos fríos (uno de los campos más activos en física en la actualidad). Lo sorprendente es que las soluciones utilizadas son las correspondientes en teoría de cuerdas a las ecuaciones de la gravedad de Einstein, sin materia, con una constante cosmológica atractiva (energía del vacío negativa) en el marco de las teorías de campo conforme, que generalizan las invariantes relativistas al grupo de Lorentz, añadiendo invarianza a transformaciones de escala o dilataciones del espacio-tiempo. Por supuesto, en física de la materia condensada las velocidades son muy pequeñas con respecto a la velocidad de la luz, luego las teorías invariantes ante el grupo de Lorentz no se utilizan, solamente las invariantes ante el grupo de Galileo.

John McGreevy

Son, Balasubramanian, y McGreevy han encontrado soluciones a las teorías de la gravedad en muchas dimensiones que tienen las simetrías requeridas por la ecuación de Schrödinger para gases de átomos fríos, que son duales a teorías de campos invariantes ante el grupo de Galileo (son no relativistas) y que presentan invarianza ante transformaciones de escala anisotrópicas. Estas soluciones se enmarcan en teorías de cuerdas “adecuadas,” lo que permite utilizar toda la maquinaria matemática de cuerdas para su análisis, como se ha demostrado recientemente en tres artículos. A. Adams, K. Balasubramanian, J. McGreevy, “Hot Spacetimes for Cold Atoms,” ArXiv preprint, 31 July 2008 , han mostrado que las soluciones de Son corresponden a soluciones de tipo agujero negro en teorías de supergravedad tipo IIB. C.P. Herzog, M. Rangamani, S. F. Ross, “Heating up Galilean holography,” ArXiv preprint, 18 July 2008 , han aplicado técnicas holográficas para sumergir las teorías de campos de Son en teorías de cuerdas con invarianza conforme galileana. Por supuesto, el propio Maldacena no pueda dejar de estar “al tanto” y encontramos el reciente Juan Maldacena et al., “Comments on string theory backgrounds with non-relativistic conformal symmetry,” ArXiv preprint August 6 2008 , en el que le da vueltas a estos asuntos. Muchos artículos en muy poco tiempo sobre el trabajo de Son, que pronto será un “hot paper” en física.

Por ahora, todos estos artículos son muy teóricos y algo alejados del experimento. No hay gases conocidos qeu se comporten como indican estas nuevas teorías. Sin embargo, seguro que ya hay físicos experimentales buscando sistemas de gases atómicos ultrafríos que permitan “realizar” experimentos en la “nueva teoría de cuerdas.”

Por cierto, alguno se preguntará, pero qué hizo realmente “nuestro amigo” Maldacena. Durante los 1970s se buscó con “ansiedad” y tesón una teoría de cuerdas que fuera equivalente a la Cromodinámica Cuántica (QCD). Aunque los trabajos de Polyakov y ‘t Hooft (premio Nobel junto Veltman en 1999) mostraron que parecía posible, nadie fue capaz de dar con ella. Ya en los 1990s, durante la segunda revolución de la teoría de cuerdas, con la introducción por parte de Polchinski de sus D-branas (“membranas” en cuyo borde se encuentran las “cuerdas” o soluciones clásicas de las ecuaciones de campo de una teoría de cuerdas en 10 dimensiones, se dió un importante avance. Sistemas de N branas paralelas se parecían a las teorías QCD con sólo gluones (portadores de fuerza entre quarks). Juan Maldacena conjeturó en 1996 la existencia de una solución gravitatoria débilmente curvada en el límite de un gran número de branas que corresponde a la teoría QCD [Juan Martin Maldacena,”The Large N limit of superconformal field theories and supergravity,” Adv. Theor. Math. Phys. 2:231-252, 1998; Int. J. Theor. Phys. 38:1113-1133, 1999, ArXiv preprint hep-th/9711200, uno de los artículos de física más citados de toda la historia). Todavía no ha sido encontrada dicha teoría de cuerdas equivalente a la QCD. La conjetura sigue abierta. Sin embargo, trabajos posteriores han estudiado sus propiedades (de algo desconocido aún) y han encontrado que explicará muchas cosas como el confinamiento de los quarks.

En relación a “uno de los artículos más citados de la historia,” si observáis la curva del número de citas veréis que todavía es lineal (el número de citas a crecido linealmente hasta hoy). Todos los estudios sobre el proceso de citas indican que las curvas de cita son “campanas asimétricas”, el número de citas crece, alcanza un pico y luego decae con una cola de pendiente más suave. Pues bien, el artículo de Maldacena parece que todavía no ha alcanzado el pico con lo que este artículo de “nuestro amigo” Juan seguirá siendo uno de los artículos más citados de toda la historia de la física hasta que le llegue la hora de la jubilación.

Si te parece interesante para otros, Menéame.