Este año ha sido el año de la finalización del LHC del CERN, el año del inicio de la búsqueda del bosón de Higgs y los premios Nobel (léase “nobél”) de Física no podían estar fuera de esta tormenta mediática. ¿A quién premiar? Obviamente a investigadores relacionados con la ruptura espontánea de la simetría (el bosón de Higgs es resultado de este proceso) y con la generación de masas a las partículas elementales como los quarks (“algún” bosón de Higgs se cree que es responsable de este proceso). ¿Se le puede premiar a Higgs, a Goldstone, o a Englert y Brout? No, porque todavía no se ha descubierto el bosón (tienen que esperar a que el LHC o el Tevatrón lo descubra). ¿A quién premiar entonces? ¿A los que aplicaron la ruptura de simetría por primera vez en el Modelo Estándar? No, ya recibieron el premio Nobel de 1979 Weinberg, Salam y Glashow por sus contribuciones a la fuerza débil. ¿A los que demostraron la renormalizabilidad de esta teoría? No, ya recibieron el premio Nobel de 1999 ‘t Hooft y Veltman. ¿A quienes completaron el modelo estándar con la teoría de los quarks? No, ya recibieron el premio Nobel de 2004 Gross, Politzer y Wilczek. ¿Entonces a quién le podemos dar el premio Nobel?

Supongamos que se le quiere dar el Nobel a físicos que hayan trabajado en el desarrollo teórico y/o experimental del Modelo Estándar de partículas elementales, en este el año del LHC. ¿A quién premiar este año? La primera decisión es elegir a físicos experimentales o a físicos teóricos. En el primer caso habría que pensar en el descubrimiento del quark top (cima) en el Fermilab (aunque quizás el premio llegaría un poco tarde). El segundo caso es más difícil porque hay muchos científicos a los que se les puede conceder el premio Nobel de física por sus contribuciones teóricas al Modelo Estándar. Haciendo cuentas, tenía que caer un premio a físicos que hayan desarrollado avances importantes en la teoría de los quarks (la cromodinámica cuántica). Hay muchos candidatos. Muchos físicos con grandes posibilidades y cuyas contribuciones están en todos los libros de texto sobre teoría cuántica de campos.

Las teorías matemáticas de simetría que se utilizan en teoría cuántica de campos (teorías de Yang-Mills) que subyacen al Modelo Estándar y a la teoría de quarks en particular requieren que estas partículas no tengan masa. Pero los quarks “aparentan” tener masa. Nadie ha aislado un quark y ha medido su masa en reposo, aunque todos los experimentos actuales parecen indicar que tienen masa en reposo no nula, nadie sabe exactamente cuánta es. El descubrimiento de que el quark top (cima), el más pesado, tiene una masa decididamente diferente de cero (algo hoy en día indiscutible) ratificó que los quarks “deben tener” masa en reposo no nula (aunque no sepamos calcularla). ¿Por qué los quarks tienen masa? El proceso todavía no se entiende (hasta que se encuentre en bosón de Higgs o lo que lo sustituya no se logrará), pero lo que queda claro que las ideas que se barajan para darle masa a los fermiones (electrones y neutrinos) podrían ser también aplicables a los quarks. La idea básica es la ruptura espontánea de la simetría (teorizada a alta energía) que hace que a baja energía, con la simetría rota, observemos estas partículas con masa. Este proceso ya se observó en la teoría de la superconductividad y su aplicación a las teorías cuánticas de campos corrió a cargo de Yoichiro Nambu, motivo por el que ha recibido el premio Nobel en Física de 2008.

Los trabajos de Nambu fueron la base para los trabajos de Goldstone, en los que se basaron tanto Englert y Brout, como Higgs, independientemente (si se descubre el bosón de Higgs, entre estos cuatro investigadores estará otro Nobel). De hecho, fue el propio Nambu el que llamó a la partícula “bosón de Higgs” en lugar de “bosón de Englert-Brout-Higgs”, que hubiera sido un nombre, históricamente, más apropiado (los bosones de Goldstone son algo “ligeramente” distinto). Volviendo a Nambu, he de indicar que es un gran teórico y a estas alturas de su vida (nació en 1921) ha realizado grandes contribuciones a la física teórica (por ejemplo, en la gran “denostada” teoría de cuerdas).

¿Es el mecanismo de ruptura de simetría (la violación de la simetría CP) la que dota de masa a todos los fermiones (quarks, electrones, neutrinos)? Realmente nadie lo sabe. Pero todos “creemos” saberlo. Si no fuera así la sorpresa sería mayúscula (el LHC del CERN nos dará la respuesta en unos 3 años). Lo dicho, si el mecanismo de ruptura de la simetría es el responsable de dotar de masa a los quarks, eso significa que los “estados cuánticos” de estas partículas a alta energía (soluciones simétricas) pueden combinarse para obtener los “estados masivos” de estas partículas a baja energía (soluciones con simetría rota). La combinación más sencilla sería de uno a uno (pero no es lo que observamos, hay varias generaciones de fermiones, por lo que debe haber algún tipo de mezcla). Lo más sencillo para esta mezcla es suponer que haya una relación lineal entre esos dos tipos de estados, es decir, hay una matriz (unitaria) que relaciona ambos tipos de estados. Esta matriz es la matriz de Kobayashi-Maskawa, es la que instancia dicha relación y por la que estos dos investigadores japoneses, Kobayashi (1944-) y Maskawa (1940-) han compartido la otra mitad del premio Nobel de Fïsica de 2008.

¿Simetría CP? ¿Qué es eso? En las teorías cuánticas de campos relativistas, la invarianza relativista “obliga” a que estas teorías cumplan tres leyes de invarianza básicas: la simetría ante inversiones temporales (T), que la teoría es válida tanto si el tiempo avanza hacia el futuro como hacia el pasado, la simetría ante inversiones especulares (P), que el mundo de Alicia antes y después de cruzar el espejo tiene las mismas leyes físicas, y la simetría entre partículas de materia y antimateria, invarianza de conjugación de carga (C). Todas las teorías cuánticas relativistas “razonables” deben cumplir el “sacrosanto” de la invarianza conjunta CPT. ¿Pero qué pasa con las simetrías “simples” P, T, C, PT, CP, o CT? La fuerza nuclear débil, responsable de las interacciones en las que intervienen neutrinos, viola la paridad (simetría P), por lo que los teóricos Yang y Lee recibieron el premio Nobel de Física en 1957. ¿Qué implicaciones teóricas tendría que se violara, por ejemplo, la simetría combinada CP? En esto estaba trabajando Nambu alrededor de 1960. Y por ello ha recibido el Nobel. ¿Cómo podría desarrollarse ese mecanismo? Gracias a un campo que podría tener “remanentes”, partículas que pudieran ser observadas, como el bosón de Higgs.

El Higgs todavía no ha sido observado ni ningún otro bosón escalar que “medie” en la ruptura de la simetriá. ¿Qué otras consecuencias experimentales puede tener la violación de la simetría CP? Ciertas desintegraciones de partículas (mesones) estarían prohibidas si la simetría CP no se violara. En 1964, Cronin y Val Fitch descubrieron experimentalmente que la desintegración del mesón K violaba la simetría CP (en 2001 se descubrió que los mesones B también la violan, había evidencia desde 1999). Los teóricos de finales de los 1960s empezaron a entender que quizás la causa de que el universo nos muestre sólo materia y no antimateria (por partes iguales se tuvieron que crear tras la Gran Explosión) también podría estar relacionada con la violación de la simetría CP. A principios de los 1970s una nueva teoría de la fuerza nuclear fuerte empezaba a ser considerada, una teoría que se basaba en la existencia de unas hipotéticas partículas llamadas quarks. Si la simetría CP se violaba tenía que haber varias generaciones de quarks (como las había de los electrones, entonces se conocían dos, el electrón y el muón). Esto fue lo que estudiaron en 1972, Kobayashi y Maskawa, quienes desarrollaron la teoría cuántica de campos con simetría rota para estas generaciones de los quarks. En aquella época sólo se conocían dos generaciones (de electrones y de quarks). El trabajo de estos japoneses demostró que la consistencia de la teoría requería que existiera una tercera generación, aún por descubrir. Y no tardó en ser descubierta (primero con el descubrimiento del tercer electrón, alrededor de 1974, y luego con el descubrimiento del quinto quark, bottom, en 1977). Hoy, su trabajo es fundamental para estudiar las tres generaciones de quarks que han sido observadas (no para entender por qué hay sólo tres, ese es otro problema aún no resuelto). La existencia de generaciones de partículas elementales es uno de los pilares fundamentales del Modelo Estándar actual.

No os aburro más. Enhorabuena a los premiados, en especial a Nambu, que con sus casi 88 años ya estaría perdiendo la esperanza de recibir el Nobel, obviamente relacionado con el bosón de “moda”. ¿Por qué lo digo? Porque el año en el que se enciende el LHC no se han podido realizar las primeras colisiones por un problema técnico “menor” con lo que el descubrimiento del Higgs se retrasará por lo menos hasta 2011.

Sitio oficial del Premio Nobel de Física 2008.

Artículos Premiados:

Title: CP-VIOLATION IN RENORMALIZABLE THEORY OF WEAK INTERACTION Author(s): KOBAYASH.M; MASKAWA, T Source: PROGRESS OF THEORETICAL PHYSICS Volume: 49 Pages: 652-657 Published: 1973 Times Cited: 3,232

Title: DYNAMICAL MODEL OF ELEMENTARY PARTICLES BASED ON AN ANALOGY WITH SUPERCONDUCTIVITY .1. Author(s): NAMBU, Y; JONA-LASINIO, G Source: PHYSICAL REVIEW Volume: 122 Pages: 345-358 Published: 1961 Times Cited: 2,869

Title: DYNAMICAL MODEL OF ELEMENTARY PARTICLES BASED ON AN ANALOGY WITH SUPERCONDUCTIVITY .2. Author(s): NAMBU, Y; JONA-LASINIO, G Source: PHYSICAL REVIEW Volume: 122 Pages: 345-358 Published: 1961 Times Cited: 1,292

Nota: Giovanni Jona-Lasinio, coautor del artículo más citado de Nambu, es un físico-matemático italiano. ¿Qué pensará por no haber recibido el Nobel? Nambu es mucho más famoso e importante, pero ¿él no ha pintado nada en dichos artículos? En honor a la verdad, en dichos artículos de Nambu y Jona-Lasinio se menciona que la idea original es de Nambu que ya publicó una versión más limitada en la misma revista Yoichiro Nambu, “Quasi-Particles and Gauge Invariance in the Theory of Superconductivity,” Phys. Rev. 117: 648-663, 1960 , pero que ha citado muchas veces menos (menos de 700 veces).

La autocuración está empezando a entrar, poco a poco, en la reino de la medicina “científica”, ya que en el campo de las medicinas alternativas ha sido utilizada desde hace siglos. Algunos han bautizado este campo como psiconeuroinmunología, el poder curativo de nuestra mente (a los interesados les recomiendo el trabajo de George F. Solomon o el de la española Avelina Pérez Bravo o el artículo sobre Autocuración en el número 3 de la revista Planeta Fascinante). Nuestro subconsciente puede favorecer que nos curemos de una enfermedad o al menos que sanemos más eficazmente. Este “poder” es canalizado por la confianza en la medicina (aunque sea un placebo) y en el médico (aunque sea un curandero). Se puede entrenar y ya hay equipos médicos por todo el mundo investigando este “peliagudo” asunto. Es como si la esperanza en curarse contribuyera a la propia curación.

La autocuración tiene muchas caras, hoy hablaremos del poder del medicamento. Jeffrey Koch es un internista con una consulta en Oklahoma y trabaja en placebos (extracto del artículo portada del número 3 de Planeta Fascinante). Ahora usa la sinceridad como arma. “Yo le voy a prescribir a usted un medicamento que es un placebo. Una pastilla que contiene azúcar, ningún otro principio activo. En la mayoría de los pacientes con su mismo probema se ha producido un descenso de la tensión arterial tras tomar estos comprimidos, así que, si le parece, podemos probar si funciona con usted”. Koch afirma que funciona en más de la mitad de los pacientes.”El paciente tiene suficiente con saber que a otros les ha funcionado […] Cuando les receto placebos a mis pacientes, me siento como un curandero…”

¿La eficacia de un medicamento depende de cuestiones comerciales, como el precio? ¿Un paciente piensa que un medicamente más caro es más eficaz? Este asunto ha sido estudiado por Rebecca L. Waber, Baba Shiv, Ziv Carmon, y Dan Ariely, “Commercial Features of Placebo and Therapeutic Efficacy,” Journal of the American Medical Association, 299: 1016-1017, March 5, 2008 , mediante el estudio de la respuesta a placebos contra el dolor (analgésicos “de azúcar”) en función de su precio.

En 2006 recrutaron a 82 voluntarios sanos en Boston, Massachusetts, que recibieron 30$ por participar. Se les informó que se les iba a utilizar de “conejillos de indias” para un nuevo analgésico opiáceo aprobado recientemente por la administración americana (Food and Drug Administration). Por supuesto, se trataba de un placebo en pastillas. A la mitad se les informó que cada pastilla costaba 2.5$ y a la otra mitad que el precio se había rebajado a 0.10$ por pastilla (sin mencionar razón alguna para la rebaja). Con el consentimiento por escrito de los participantes, se les aplicó un protocolo de respuesta la dolor, pequeños electroshocks en una muñeca (mano) cuya intensidad de dolor tenían que calibrar en una pantalla de ordenador desde “no siento dolor alguno” a “es un dolor insoportable”. No es tortura, es medicina, recuerda que las pastillas que les suministraron eran analgésicos (contra el dolor) y que recibieron 30$.

El 84.5% de los pacientes que pensaban que la pastillas costaban 2.5$ mostraron una reducción de su dolor tras tomar las pastillas, mientras que sólo el 61% de los pacientes que pensaban que costaban unos “míseros” 0.10$. La figura de arriba muestra los resultados en función del voltaje aplicado. En la figura un valor más alto significa una mayor reducción del dolor.

Estos resultados son importantes para la medicina terapéutica. Ya que se ha observado en otros estudios que la recomendación de genéricos (medicamentos más baratos) acarrea una reducción de eficacia del medicamento. ¿Es culpa de los excipientes? También se ha observado que las terapias más caras suelen dar mejores resultados. Quizás, parte de dichos resultados positivos, como este estudio nos indica, pueda ser resultado del precio del medicamento y no de su combinación de principios activos y excipientes.

Por supuesto, un estudio con sólo 82 pacientes tiene una validez estadística muy limitada. Este estudio tiene que ser replicado con poblaciones mucho más grandes y en un amplio espectro de enfermedades. Aún así, lo que demuestra es la enorme importancia de la relación de confianza entre el médico, la medicina, y el paciente. Otro ejemplo más de la importancia médica que está adquiriendo la autocuración.

El artículo ganador del premio Ig Nobel ya recibió gran atención por parte de la comunidad médica. Por ejemplo, David Spiegel, Anne Harrington, “What is the placebo worth? The doctor-patient relationship is a crucial part of its value,” BMJ, 336:967-968, 3 May 2008 , nos recuerdan que un “milagro” es “algo que crea fé” y la fé “mueve montañas”, es una de las fuerzas más poderosas que conocemos y tiene gran número de aplicaciones terapéuticas que la medicina convencional tiene que aprender a explotar en su beneficio (de los pacientes). G. Lorimer Moseley, “Placebo effect. Reconceptualising placebo,” BMJ, 336:1086, 17 May 2008 , nos recuerda que estos estudios sobre los efectos de los placebos reflejan las limitaciones intrínsecos de los experimentos científicos (mediante el método científico) en medicina (muy diferentes a la aplicación de dicho método en otras ciencias). La respuesta de un medicamento se mide muchas veces por los síntomas que tiene un paciente, que dependen de su respuesta cerebral. La respuesta a un placebo no es una respuesta a “nada”. Es una respuesta del cerebro (reducción de los síntomas) a “algo” (que no es el principio activo del medicamento). ¿Cómo distinguir si las conclusiones de un estudio que “prueba” que un medicamento es mejor que otro son fiables si sólo tenemos en cuenta los síntomas de los pacientes?

El hambre agudiza el ingenio. Incluso para un protozoo o un hongo (pues el Physarum polycephalum fue considerado hongo y ahora se le considera protozoo). A vista, es una especie de moho de color amarillo, con forma de ameba grande con una red de estructuras tubulares parecidas a dendritas (psuedópodos).

Su ciclo de vida pasa por diferentes fases (desde estados unicelulares ameboides, tipo ameba, a estados multicelulares, tipo moho). Durante la mayor parte de su vida es un “moho” móvil, una masa de protoplasma con numerosos núcleos que se desliza por el suelo buscando las partículas de alimento. Si las condiciones ambientales hacen que el plasmodio se deshidrate, se formará un tejido endurecido multinucleado que sirve como etapa latente durante largos períodos de tiempo. Una vez que las condiciones favorables se reanudan, el plasmodio reaparece para continuar con su búsqueda de alimento.

Cuando falta el alimento, el plasmodio finaliza la fase de alimentación y comienza con su fase reproductiva. A partir del plasmodio se forman tallos de esporangios y dentro de estas estructuras se produce la meiosis y se forman esporas. Los esporangios suelen formarse en espacios abiertos para que las esporas se propaguen por medio del viento. Cuando las esporas germinan, liberan células flageladas o ameboides (etapa móvil). Las células se fusionan para formar una nuevo plasmodio.

El plasmodio tiene una curiosa habilidad. Si se encuentra dos fuentes de alimento, utiliza sus dendritas para estar conectado a ambas. ¿Qué pasará si ambas fuentes de alimento se encuentra en dos lugares alejados en un laberinto? Sorprendentemente, el plasmodio es capaz de encontrar el camino de longitud mínima en dicho laberinto, es decir, una protozoo es capaz de resolver el problema de encontrar el camino más corto entre dos puntos de un laberinto. Lo han demostrado Toshiyuki Nakagaki, Hiroyasu Yamada, and Ágota Tóth, “Intelligence: Maze-Solving by an Amoeboid Organism,” , Nature, 407: 470, 2000 (interesante artículo que ha fecha de hoy ha sido citado 56 veces).

Hombre, el tema tiene algo de truco. Según como se mire. Los investigadores rellenaron todo un laberinto con “trozitos” de plasmodio. Luego pusieron comida (terrones de azúcar en las posiciones AG de la figura derecha) en dos lugares alejados. Dejaron evolucionar el sistema y el plasmodio se fue retrayendo por el laberinto, abandonando los lugares “más alejados” a los dos focos de comida, resultando que a las 4 horas, sólo se observa plasmodio en el camino más corto que une los dos focos de comida (como muestran las figuras de la derecha).

¿Por qué el plasmodio decide cambiar su forma para acercarse a la del camino de longitud mínima entre las dos fuentes de alimento? Para maximizar su capacidad de alimentarse. El plasmodio es un sistema formado por muchos núcleos celulares conectados por dendritas (tentáculos) por lo que su forma óptima en el laberinto facilita que la llegada de alimento a todas los núcleos sea lo más eficaz posible. Para ello, el plasmodio utiliza ondas de contracción a todo su largo. Por poner un ejemplo “casero” esto es como los movimientos peristálticos de nuestro esófago para engullir cuando nos alimentamos.

La inteligencia del Physarum polycephalum va más allá, e incluso si no hay ningún laberinto, es capaz de buscar el camino más corto que una serie de puntos de comida, es decir, resuelve el problema de Steiner. Como mostraron por primera vez Nakagaki, T., Kobayashi, R., Nishiura, Y., Ueda, T., “Obtaining multiple separate food sources: Behavioural intelligence in the Physarum plasmodium,” Proceedings of the Royal Society B: Biological Sciences, 271: 2305-2310, 2004. Los autores afirman en dicho artículo que esta solución demuestra claramente la inteligencia del plasmodio. Sin embargo, a mí me recuerda a las pompas de jabón. Los árboles (grafos) de Steiner son también la solución que encuentran las pompas de jabón para el problema de encontrar el camino (área de película de jabón) mínimo entre una serie de pivotes. ¿Alguien afirmaría que las películas de jabón tienen inteligencia?

La inteligencia de los investigadores no tiene límites y se ha propuesto el uso del Physarum polycephalum como computador analógico (también se propuso el uso de las pompas de jabón). En el artículo A. Adamatzky, “Physarum machine: Implementation of a Kolmogorov-Uspensky machine on a biological substrate,” Parallel Processing Letters, 17: 455-467, December 2007, se propone un modelo de máquina de Turing universal (en realidad una máquina de Kolmogorov-Uspensky) basada en este plasmodio. El plasmodio es tan inteligente como el ordenador en el que estás leyendo esta entrada. ¿Es inteligente tu ordenador?

Hablando de laberintos, me ha venido a la memoria David Bowie. Así que lo siento, no puedo resistir la tentación.

http://es.youtube.com/watch?v=y1-l0UNCKJM

A la pregunta del título de esta entrada (retórica) sobre las políticas de reducción de las emisiones he de contestar ¿las hay? El último estudio del Global Carbon Project estima que las emisiones de carbono han crecido un 3.5% anual entre los años 2000 y 2007, dato a comparar con el crecimiento estimado por el Intergovernmental Panel on Climate Change (IPCC) de sólo un 2.7% y con las emisiones durante los 1990s, de sólo un 0.9% de crecimiento anual. Actualmente, China ha pasado a ser el mayor emisor del mundo de CO2, contribuyendo con un 21% a las emisiones totales, relegando a EEUU a un “honroso” segundo puesto con sólo el 19% del total. Rusia es el tercero, pero seguido de cerca por India. Datos publicados en “Carbon dioxide emissions rise to record levels,” Nature 455, 581, 1 October 2008 .

Los modelos de cambio climático predicen que las concentraciones atmosféricas de CO2 alcanzarán niveles no “vistos” en los últimos 25 millones de años (Ma.); de hecho, los datos paleoclimatológicos indican que la concentración de CO2 empezó a descender hace 45 Ma. y estuvo descendiendo hasta hace 25 Ma., momento en que se ha mantenido, más o menos constantes, hasta la actualidad (salvo el último siglo). Como nos recuerda Stephen F. Pekar, “Climate change: When did the icehouse cometh?,” Nature 455, 602-603, 2 October 2008 . Los modelos climáticos (que pueden estar equivocados) predicen que la concentración de CO2 se encontrará a finales del s. XXI entre 500 y 900 partes por millión (p.p.m.), niveles similares a los que hubo hace 45 Ma. En esta época la Tierra dejó de ser un mundo “verde” libre de hielo para convertirse en un mundo “helado” que sufre periodos glaciares.

¿Alguien sabe cuál es el impacto “real” de la concentración de CO2 en el clima terrestre o en el hielo de los polos? Pekar nos recuerda que los geólogos normalmente usan los datos de hoy para predecir el pasado, pero el pasado es la clave para predecir el futuro. ¿No es un círculo vicioso? Dado el enorme interés en los efectos del CO2 en el clima tando de los científicos como de la opinión pública, sorprende la gran incertidumbre actual sobre los efectos reales del CO2 en los casquete polares. El último estudio sobre el tema, Robert M. DeConto et al. , “Thresholds for Cenozoic bipolar glaciation,” Nature, 455: 652-656, 2 October 2008, trata de aclarar el tema utilizando modelos por ordenador, pero sus conclusiones son, para un lego como yo, cuando menos, discutibles. Su conclusión es que la Antártida se heló hace unos 33.6 Ma. mientras que el polo norte lo hizo más tarde, cuando los niveles de CO2 hace 25 Ma. alcanzaron los niveles de hace un siglo. Quizás porque se dieron circunstancias favorables de la órbita terrestre. Sin embargo, se necesitan nuevos datos experimentales para contrastar o refutar las tesis de DeConto et al.

Las predicciones hacia el pasado de los modelos de DeConto et al. dependen de las reconstrucciones de los niveles atmosféricos de CO2. Los datos más fiables se tienen en el hemisferio sur, en la Antártida, por ejemplo, los recientemente obtenidos por Jinho Ahn y Edward J. Brook, “Atmospheric CO2 and Climate on Millennial Time Scales During the Last Glacial Period,” Science, 322: 83-85, 3 October 2008 , quienes han reconstruido estos datos en el periodo que hace de 90 a 20 mil años. También se requieren datos fiables del nivel mar en el pasado, como los obtenidos por Bilal U. Haq y Stephen R. Schutter, “A Chronology of Paleozoic Sea-Level Changes,” Science, 322: 64-68, 3 October 2008 , para la era paleozoica desde hace 542 a 251 Ma. Han encontrado 172 eventos en los que el nivel del mar ha cambiado significativamente (evento eustático) con variaciones entre unas decenas de metros y hasta 125 metros (de altura respecto al nivel del mar actual, tanto hacia arriba como hacia abajo).

Pero, ¿cuál es la causa real del deshielo de glaciares en Groenlandia y en el casquete antártico oeste? ¿Realmente es el cambio climático? ¿Tiene algo que ver el régimen de viento? Parece ser que sí, como nos comenta Richard A. Kerr, “Winds, Not Just Global Warming, Eating Away at the Ice Sheets,” Science, 322: 33, 3 october 2008 . Cambios aleatorios en la circulación de los vientos que producen cambios en la circulación del agua en los océanos pueden ser los causantes del deshielo, en lugar del cambio climático. En Groenlandia parece que es así.

Lo dicho antes, el tema está que “arde” pero todavía queda muchísimo por conocer y científicamente, de forma fiable, es imposible predecir en la actualidad que va a pasar y se tienen muchas dudas sobre qué ha pasado. Lo que está claro es que todo está conectado, son muchísimos los factores que hay que tener en cuenta. El cambio climático es un hecho pero sus causas una gran incógnita. ¿Cómo se pueden hacer políticas efectivas para evitarlo si no se pueden evitar estas (ya que no se conocen)? Afortunadamente, “la ciencia avanza que es una barbaridad.”

¿Son las mujeres más guapas (atractivas sexualmente) para los hombres durante el momento más fértil de su ciclo menstrual? La mayoría de los mamíferos muestra este tipo de comportamiento, a los machos les apetece más reproducirse cuando las hembras son más fértiles (incluyendo los primates). Algunos investigadores creen que en la especie humana la evolución ha llevado a que este comportamiento se haya “perdido” o esté “oculto”. Otros, por el contrario, han encontrado ciertas “pruebas” del mismo, en laboratorio. Por ejemplo, se han realizado estudios basados en encuestas a hombres que indican que las mujeres en su momento más fértil tienen rasgos faciales más atractivos, su cuerpo parece más simétrico, o tienen mayor fluidez y creatividad verbal (en opinión de los hombres).

Los estudios en laboratorio son interesantes. ¿Pero estos efectos también se observan en la vida diaria? Hay varios estudios de este tipo, pero uno de los más interesantes es el de Geoffrey Miller, Joshua M. Tybur, y Brent D. Jordan, “Ovulatory Cycle Effects on Tip Earnings by Lap Dancers: Economic Evidence for Human Estrus?,” Evolution and Human Behavior, 28: 375-81, 2007, que presenta la primera evidencia económica en el mundo real de la sensibilidad de los hombres a los cambios en el ciclo menstrual de las mujeres y en concreto en su atractivo sexual. Para ello han medido (durante dos meses) las propinas diarias que reciben las bailarinas de clubs nocturnos (donde bailan en topless) en función del día de su ciclo menstrual (las bailarinas utilizan tampones durante la menstruación que se cambian cuando retornan al camerino entre coreografía y coreografía). Estas bailarinas están muy motivadas para comportarse de la forma más atractiva posible todos los días, ya que sus propinas dependen de ello.

El resultado es sorprendente. Las bailarinas en los días de mayor fertilidad reciben muchas más propinas que el resto de sus competidoras (entre 5 y 30 según el club) que están bailando con ellas durante la misma noche. Destaca la comparación con las bailarinas que utilizan la píldora, como muesra la figura de más arriba. Os recuerdo que la división estándar del ciclo menstrual es: fase folicular (días 1 a 8), fase fértil (días 8 a 16) y fase luteal (días 16-28). Las bailarinas estudiadas tenían un ciclo menstrual de 28 o 29 días bastante regular (se les realizó una encuesta previa). Claramente, las bailarinas reciben muchas más propinas los días fértiles de donde los autores del estudio concluyen que son más atractivas para los hombres.

Aunque el estudio se ha realizado con sólo 18 mujeres (bailarinas), lo que limita la validez estadística de los resultados, el impacto del ciclo de ovulación de una bailarina topless sobre las propinas que recibe parece muy claro (como indica la figura de arriba). Ahora los autores deben encontrar las causas (qué es lo que un hombre ve diferente en una mujer fértil o qué señales muestra el cuerpo femenino de forma acentuada en dichos momentos).

Otro año más para los Encuentros con la Ciencia, coordinado por el Dr. Viguera y varios colaboradores, ofrece una serie de conferencias en la Sala del Ámbito Cultural de El Corte Inglés de Málaga de aquí a finales de año (a las 19:30 horas). Podrás disfrutar de las siguientes conferencias:

Lunes 6-X-2008: ‘Simbiosis: aprendiendo a vivir juntos’ Amparo Latorre Castillo, del Instituto Cavanilles de Biodiversidad y Biología Evolutiva (Universidad de Valencia)

Lunes 20-X-2008: ‘Mundo RNA y origen de la vida’ Carlos Briones Llorente, Centro de Astrobiología (Madrid)

Viernes 3-XI-2008: ‘La oncología en el siglo XXI: Hacia un tratamiento personalizado’ Emilio Alba Conejo, del Hospital Clínico Virgen de la Victoria (Málaga)

Lunes 17-XI-2008: ‘Ciencia a la cazuela’ Carmen Cambón, Marisol Martín y Eduardo Rodríguez (SEK-Ciudalcampo de Madrid)

Lunes 1-XII-2008: ‘Determinismo y azar en el comportamiento humano’ Marcos Ruiz, de la Facultad de Psicología de la Universidad de Málaga

Viernes 5-XII-2008: ‘Insectos en Ámbar: atrapados en el tiempo’, Enrique Peñalver, del Museo Geominero, Instituto geológico y Minero de España (Madrid)

Lunes 15-XII-2008: ‘La revolución biotecnológia: ¿una amenaza o una oportunidad para el desarrollo de la humanidad’, Luis Ángel Fernández, Centro Nacional de Biotecnología (Madrid)

Como afirman los coordinadores su misión es “facilitar el entendimiento de los temas científicos a todos los ciudadanos.” Estas jornadas están coordinadas por los doctores de la UMA Ana Grande, Enrique Viguera y José Lozano. También han participado Carmen Iñiguez (Cis Arqueología) y Julia Tova (Sociedad Malagueña de Astronomía). Todas las conferencias se desarrollarán en la sala del Ámbito Cultural a las 19:30 horas.

¿Cómo descubrió el hombre de cromañón (cro-magnon, piedra grande) los primeros nudos? Probablemente por casualidad gracias a que un nudo “espontáneamente” se formó (ató). El hombre aprendió rápidamente a hacer sus propios nudos y culturas como los incas los utilizaron como escritura. Muchos tenemos un cuadro de nudos marineros en nuestra casa. Los nudos tienen cierto atractivo y los que hemos practicado escalada (ya hace años) necesitamos dominar una serie de nudos básicos.

A finales del s. XX los nudos han recibido un renovado interés. Se ha descubierto que ciertos polímeros, cadenas largas de moléculas como el ADN, presentan nudos. Estas moléculas se han anudado espontáneamente gracias a su movimiento browniano, la agitación térmica natural de la molécula que recibe los choques de las “pequeñas” moléculas del medio que la circunda. Gracias a este movimiento, la molécula trata de ocupar todo el volumen de espacio disponible, pero no puede cortarse o cruzarse a sí misma, con lo que acaba anudándose. Los nudos normalmente son irreversibles y la molécula una vez anudada espontáneamente no puede desanudarse. La termodinámica que impide que el vaso roto vuelva a reconstruirse, impide que la molécula anudada pueda desanudarse.

http://es.youtube.com/watch?v=19kTLhpPopY

¿Cómo se anuda espontáneamente una molécula? Ver en vivo y en directo este proceso es extremadamente difícil. Lo más fácil es estudiar cómo se anuda “espontáneamente” una cuerda. Este estudio fue realizado por Dorian M. Raymer y Douglas E. Smith, “Spontaneous Knotting of an Agitated String,” Proceedings of the National Academy of Sciences, 104: 16432-16437, 2007. El vídeo de arriba muestra cómo se anuda una cuerda larga, de 3 m. en una caja de 10x10x10 cm. que se hace rotar a una velocidad de una revolución por segundo (el vídeo muestra 10 s.

Los procesos espontáneos en física (termodinámica o teoría cinética) están asociados a la evolución de la energía en un sistema buscando un mínimo de energía. El sistema en un mínimo de energía se inestabiliza o sufre perturbaciones externas que le hacen “recorrer” el espacio de todas sus posibles configuraciones alcanzando nuevos mínimos de energía (a veces más estables que el original). ¿Hay algún tipo de energía de nudos (knot energy) asociada al proceso de anudamiento espontáneo? Andrew Belmonte, “The tangled web of self-tying knots,” PNAS, 104: 17243-17244, 2007, nos recuerda que una cuerda anudada es un sistema no local en el que puntos alejados de la cuerda se encuentran físicamente cercanos en la región del nudo “inmovilizando” ciertas regiones de la cuerda, estabilizándolas ante perturbaciones exteriores (movimientos aleatorios de la cuerda). En este sentido la cuerda anudada tiene menos grados de libertad para sus movimientos que la no anudada y muestra un “mínimo” de energía. Esto nos recuerda a la Segunda Ley de la Termodinámica, a que la entropía se maximiza (en los procesos espontáneos). “Las cosas alargadas tienden a enredarse”.

Los 3415 experimentos de Raymer-Smith en los que han agitado cuerdas de diferentes longitudes en una caja cerrada han mostrado ciertas sorpresas. Uno espera que la cuerda conforme es más larga más se anuda. Sin embargo, Raymer-Smith han encontrado un longitud crítica a partir de la cual las cuerdas no se anudan más (la figura de la izquierda muestra la probabilidad de anudamiento en función de la longitud de la cuerda manteniendo el tamaño de la caja fijo). Una explicación simple es que las cuerdas más largas ya no tienen más espacio para poder explorar nuevas configuraciones anudadas durante su agitación. Este resultado es importante para entender cómo se anuda una molécula de ADN en los cromosonas cuyos efectos epigenéticos son muy importantes en el control de la expresión de genes.

Otra sorpresa del estudio de Raymer-Smith es que han obsevado fundamentalmente nudos simples (primos en la nomenclatura de la teoría de nudos). No han observado nudos compuestos (nudos con nudos insertados). Esto nos hace pensar que los nudos compuestos tienen más “energía” que los simples y por tanto no corresponden a estados de mínima “energía de nudos”.

¿Cuándo dos nudos son iguales? La teoría de nudos nos ofrece una herramienta matemáticaque son invariantes topológicos de nudos. Desde principios del s. XX, los invariantes polinómicos son los más utilizados. Los autores han analizado fotos de los nudos mediante el programa KnotPlot que permite calcular automáticamente los polinomios (invariantes) de Jones e identificar el tipo de nudo observado. La figura de abajo muestra un ejemplo.

Para publicar en una revista tan importante como PNAS no basta con observar algo, hay que tratar de explicarlo. Los autores han presentado un modelo matemáticos simplificado de la formación de los nudos que ha mostrado mediantes simulaciones una buena capacidad predictiva. El modelo sólo tiene en cuenta un extremo de la cuerda ya que los experimentos indican que los nudos se “nuclean” gracias al movimiento de los extremos de la cuerda (proceso que ha sido visualizado en los vídeos de los experimentos). El modelo tiene en cuenta la rigidez (stiffness) de la cuerda y el confinamiento debido a la caja.

El modelo se basa en el uso de diagramas de trenzas, como el que aparece en la figura de la izquierda abajo. La agitación de la cuerda hace que el extremo libre de la misma se “enrede”, lo que en el modelo corresponde al trenzado de las trenzas (movimiento de trenzas). Los movimientos locales y la geometría local de la cuerda no es relevante, sólo su topología. En el modelo de trenzas se asume que cada segmento de trenza sufre “movimientos de trenzas” que afectan al extremo libre (punto blanco en la figura) con una cierta probabilidad, por ejemplo, un 50% de las veces se mueve hacia arriba y el otro 50% hacia abajo. En este modelo se producen tanto anudamientos (se crean nuevos nudos) como desanudamientos (se destruyen nudos).

El modelo es extremadamente simple, sin embargo, da cuenta de varios efectos observados en los experimentos. Primero, un teorema de la teoría de nudos garantiza que todos los nudos primos se pueden generar mediante la operación implementada en el modelo. Segundo, el modelo muestra la ocurrencia de una longitud crítica a partir de la cual no se forman más nudos, como demuestran las simulaciones por ordenador. El modelo tiene dos parámetros ajustables, el número de segmentos en paralelo y el número de movimientos de trenzas. Las simulaciones muestran además que este modelo simplificado puede dar cuenta cualitativamente de la distribución observada de nodos en función de complejidad.

En resumen, los autores han observado experimentalmente cómo la formación de nudos de forma espontánea en una cuerda agitada dentro de una caja se produce de forma rápida, en pocos segundos. A partir de una longitud crítica de la cuerda, la probabilidad de formación de nudos se satura por debajo del 100%. El cálculo del tipo de nodo utilizando los polinomios de Jones mediante análisis digital de las imágenes del nodo indica que se han observado en las 3415 simulaciones realizadas unos 120 tipos diferentes de nudos, con un número de cruzamientos de hasta 11. De hecho, todos los nudos primos con un número de cruces de hasta 7 han sido observados alguna vez. Los autores han propuesto un modelo matemático de trenzas que explica cualitativamente la distribución observada de nudos en función de la duración del proceso de agitado de la cuerda.

PS: Nudos decorativos (gráficos 3D) y nudos decorativos (para la ropa).

PS2: A los interesados en Teoría de Nudos les recomiendo el siguiente discurso.

Poema Pulga

Pulga, animal insolente El tormento de la gente Donde no hay salubridad Pica y pica con ruindad A la mascota y demás Pica sin parar jamas Y si a la cama se sube Fido ó el gato con nube Les deja su mal recuerdo Con mi total desacuerdo En su subida a la cama

Piretrina ó DDT Rasca y se rasca otra vez Y aunque la pulga haya muerto Seguro que deja suelto Descendencia en cantidad Y el tormento en su maldad Continuará con el ciclo Mientras yo sigo el periplo De bañar a la mascota Polvo aplicarle y grandota La dosis a administrar Para así poder sacar Todo vestigio de pulga Como el anuncio promulga Mientras yo tiro el colchón

Mas la pregunta será Si este animal volverá A visitar a mi Fido Y regalarle otro nido Mientras me hago un garabato Del desastre y de la pulga.

Roderi Solis (poeta principiante)

Los circos de pulgas fueron muy populares hace años, aunque muchas veces eran “timos” que no contenían pulgas de verdad. En Mijas pueblo, Málaga, hay un pequeño museo en un carromato, el Museo del Profesor Max de Mijas (también llamado el Carromato de Max), que exponía un grupo de pulgas disecadas “vestidas”, supuestamente pertenecientes a un circo de pulgas. El Carromato de Max fue inaugurado en Mayo de 1972 siendo desde entonces uno de los atractivos turísticos de Mijas. Lugar de visita obligada, no hay turista que se resista a entrar después de leer los carteles que a la entrada del museo explican lo que se puede ver en su interior.

Las pulgas son insectos sorprendentes por sus habilidades saltadoras. Se estima que una pulga puede saltar 350 veces la longitud de su cuerpo (aproximadamente 1 metro). Las pulgas más conocidas son las del gato (Ctenocephalides felis), la del perro (Ctenocephalides canis), la de la rata del norte (Nosopsyllus fasciatus) y la del hombre (Pulex irritans). ¿Las habilidades saltadoras de estas pulgas son las mismas? ¿Cuál de ellas es la más adecuada para un circo de pulgas?

Los biólogos Marie-Christine Cadiergues, Christel Joubert, y Michel Franc de la Ecole Nationale Veterinaire de Toulouse, Francia, han publicado el artículo “A Comparison of Jump Performances of the Dog Flea, Ctenocephalides canis (Curtis, 1826) and the Cat Flea, Ctenocephalides felis felis (Bouché, 1835),” Veterinary Parasitology, 92: 239-241, 2000, donde tratan de responder a dicha pregunta.

Su estudio ha encontrado que las pulgas del gato (C. felis) saltan una longitud entre 2 y 48 cm. con una media de 19.9±9.1 cm. y que las pulgas del perro (C. canis) saltan entre 3 y 50 cm. con una media significativamente más grande de 30.4±9.1 cm. Como muestra el diagrama de barras de arriba. En cuanto a la altura del salto, para superar una barrera en forma de cilindro, resulta que las pulgas del perro saltan más alto, hasta 25 cm. con una media de 15.5 cm., que las del gato, hasta 17 cm. con una media de 13.2 cm. La figura de abajo muestra el porcentaje de saltos logrados en función de la altura del obstáculo utilizado. Por tanto, las pulgas de perro son mejor saltadoras que las de gato.

¿Qué utilidad tiene este estudio para los especialistas en parasitología veterinaria? Se aceptan sugerencias (a mí se me ocurren muchas posibilidades). Pero, sin lugar a dudas el estudio es muy interesante para los que deseen alcanzar el “no va más” en un circo de pulgas.

El premio Ig Nobel de literatura de 2008 lo ha ganado David Sims de la Cass Business School, Londres, por su estudio “You Bastard: A Narrative Exploration of the Experience of Indignation within Organizations,” publicado en Organization Studies, 26: 1625-1640, 2005. He tratado de leer el artículo pero no he podido pasar de la quinta página. Ánimo a los que tengan paciencia para leer el artículo completamente y enhorabuena si estás entre los que lo han logrado.

Aprovecharé esta entrada para hablar un poco de los Premios Ig Nobel (que se lee en inglés como “ignoble” y se pronuncia más o menos como “ignóbol”). Recomiendo para los interesados en más detalles el libro de Marc Abrahams, “Los Premios Ig Nobel. Cuando la ciencia hace reir,” Editorial Vergara, 2004, “una parodia de los premios Nobel que celebra todo lo insólito, absurdo y ridículo de la investigación científica.”

Por cierto, ¿cómo se pronuncia Premios Nobel en español? En español la Real Academia de la Lengua, dado que se trata de un nombre propio, del sueco Alfred Nobel, recomienda que se pronuncie el nombre como en su idioma de origen. En sueco Nobel es palabra aguda (“nobél”), luego así se recomienda pronunciarla en español. Desafortunadamente está muy extendida la pronunciación incorrecta como palabra llana (“nóbel”). Las personas cultas en inglés suelen diferenciar entre “Nobel” (Alfred), “nobel” (noble), y “novel” (novél), siendo la primera aguda y otras dos llanas. Pocas personas “cultas” en español pronuncia el nombre de Alfred correctamente (en radio, T.V.).

El libro de Abrahams es curioso y a veces hasta divertido. Merece la pena leerlo. El autor selecciona algunos Premios Ig Nobel concedidos entre los años 1991-2003 que son especialmente curiosos, que explica brevemente (justificando la concesión del premio), incluyendo detalles de la ceremonia de concesión y/o extractos del discurso del premiado. De entre los premios de literatura comentados en el libro permitidme algunos comentarios.

El Premio Ig Nobel de Literatura en 1993 fue concedido a los 976 coautores del artículo médico “An International Randomized Trial Comparing Four Thrombolytic Strategies for Acute Myocardial Infarction,” The New England Journal of Medicine, 329: 673-682, 1993. El artículo en la revista está firmado colectivamente por “The GUSTO Investigators,” entre los que se encuentran 15 autores españoles. La editora principal de la revista calcula que “hay un autor por cada dos palabras del artículo.”

Actualmente este artículo no es el que tiene más artículos de la historia. Hasta donde yo sé el récord lo obstenta el artículo de 2006 con 2512 autores titulado “Precision electroweak measurements on the Z resonance,” Physics Reports, 427: 257-454, 2006, cuya firma colectiva es “The ALEPH Collaboration, The DELPHI Collaboration, The L3 Collaboration, The OPAL Collaboration, The SLD Collaboration, The LEP Electroweak Working Group and The SLD Electroweak and Heavy Flavour Groups,” y que incluye un apéndice de 14 páginas con los nombres y afiliaciones de los autores (Apéndice A, pp. 407-421).

El Premio Ig Nobel de Literatura en 1992 lo ganó Yuri T. Struchkov, investigador ruso del Instituto de Compuestos Organoelementales de Moscú, por ser coautor de 948 artículos científicos entre los años 1981 y 1990 (más de un artículo cada 4 días). El autor murió en 1995 pero siguió siendo coautor de muchos más artículos. En el ISI Web of Science, hoy, he encontrado la friolera de 2185 artículos cuyo autor es “Struchkov YT” de los cuales 1899 artículos corresponden a “Struchkov YT” con afiliación en “Moscow”. Los artículos han sido publicados entre los años 1972 y 2004. Entre 1981 y 1990 aparecen con la misma búsqueda 897 artículos. Póstumos, desde 1996 hasta 2004 aparecen 166 artículos. ¡Increíble! ¿Cuál puede ser la causa? Algunos opinan que un acuerdo tácito obligaba a todos los científicos que utilizaban los equipos de cristalografía de su instituto (uno de los pocos con dicho equipamiento en la URSS) a incluir a Yuri como coautor de los artículos resultantes de dicho trabajo.

En la necrología de Yuri Timofeevich Struchkov, 1926-1995, escrita por Alajos Kálmán para Acta Crystallographica, Section A, 52: 329-330, 1996, se afirma que fue uno de los pioneros de la cristalografía de rayos X en la URSS y que su número total de publicaciones (incluyendo artículos en revistas sin índice de impacto) supera los 2000 artículos. Además, él y su grupo de investigación han caracterizado la estructura molecular de más de 1000 compuestos que aparecen en la Cambridge Structural Database (CSD).

Para los curiosos, su artículo más citado (849 veces, hoy) es “PERFECTION OF THE SYSTEM OF CRYSTALLOGRAPHIC PROGRAMS IN THE LABORATORY OF X-RAY STRUCTURE-ANALYSIS OF THE AN-NESMEYANOV-INSTITUTE-OF-ORGANOELEMENTAL-COMPOUNDS OF THE USSR-ACADEMY-OF-SCIENCES,” de GERR RG, YANOVSKY AI, STRUCHKOV YT, KRISTALLOGRAFIYA, 28: 1029-1030, 1983. Por el título parece más un artículo de marketing que un artículo científico.

Finalmente, permitidme comentar que el índice h (de Hirsch) de Struchkov es de 44 (tiene 44 artículos con al menos 44 citas).