Muchas prostitutas en el tercer mundo se lavan sus zonas íntimas con Coca-cola (o Pepsi-cola) para aprovechar sus propiedades espermicidas. En algunos lugares del mundo se considera un remedio casero para evitar contraer el SIDA. ¿Realmente las “colas” tienen este propiedad? El estudio científico “Effect of ‘Coke’ on Sperm Motility,” escrito por Sharee A. Umpierre, Joseph A. Hill, y Deborah J. Anderson, publicado en New England Journal of Medicine, 1985, vol. 313: 1351, 1985, parece confirmar esta propiedad inaudita del refresco más popular del mundo (no he podido leer el artículo porque su texto parece que no está accesible por Internet). Sin embargo, por contra, el artículo “The Spermicidal Potency of Coca-Cola and Pepsi-Cola,” escrito por C.Y. Hong, C.C. Shieh, P. Wu, y B.N. Chiang, publicado en Human Toxicology, 6: 395-396, 1987, parece desmentir dicha propiedad. El uso de Coca-cola, Coca-cola sin cafeína, Coca-cola sin azúcar, no reduce la motilidad de los espermatozoides in vitro (menos del 70% en un periodo de una hora). El uso de la Coca-cola tras el coito como anticonceptivo es solamente un “mito” y además puede ser contraproducente ya que puede producir ciertas infecciones.

En este segundo estudio podemos leer que “aunque un estudio previo proclamó lo contrario, el efecto espermicida de la Coca-cola es muy débil comparado con otros agentes espermicidas.” ¡Cómo es posible que el dinero del contribuyente se gaste en estudios como estos!

Las propiedades “míticas” de la cola, no sólo que es un espermicida, sino que es capaz de disolver carne, que corroe monedas de metal, que es excelente para dar brillo al cobre, etc., quizás están asociadas al hecho de que es uno de los símbolos más famosos de los EEUU y de su “way of life,” ratificado por el secretismo con el que se oculta la fórmula de su composición.

De hecho, la Coca-cola es parte de gran número de artículos científicos curiosos en los que da la sensación de que los autores los han escrito tras disfrutar de buen ron-cola o similar. Por ejemplo, David W. Mudge y David W. Johnson, “Coca-Cola and kangaroos,” The Lancet, 364: 1190, 2004, donde se reportan los problemas de salud de un cazador de canguros de 44 años que afirmaba consumir unos 4 litros de Coca-cola diarios y unos 10 litros mientras estaba de cacería noctura. Su problema, fue incapaz de ponerse de pie tras un oportuno baño al retornar de una de sus correrías, razón por la cual fue internado en el hospital. Los médicos le recomendaron que dejara de tomar Coca-cola. Lo hizo y unos seis más tarde ya no tenía ningún problema muscular. ¿Fue la Coca-cola la causa de su debilidad muscular?

Otro ejemplo, los españoles M.J. Gavilán, M. Fernández-Nieto, Santiago Quirce y Joaquín Sastre, publicaron “Urticaria caused by Coca-Cola,” Journal of Allergy and Clinical Immunology, 109: S221, 2002, donde afirman que un chavala de 16 años sufrió episodios agudos de urticaria generalizada tras la ingestión de Coca-Cola durante al menos 8 años. Ella afirmó que cuanto más Coca-cola bebía, más agudos eran los efectos sobre su piel. Los médicos descubrieron este caso porque una vez tuvo que ser internada en el hospital. Los médicos decidieron comprobar la relación causa-efecto por sí mismos y la verificaron sin lugar a dudas. ¿Qué le pasaba a la muchaba? Probablemente, era alérgica a la cafeína. ¿Cómo confirmarlo? Le inyectaron cafeína por vía intradérmica (por vía parenteral) y la reacción confirmó la hipótesis.

¿El cuerpo humano absorbe mejor la cafeína contenida en la Coca-cola que la contenida en el café o en el té? El esudio de Vincent Marks y J.F. Kelly, “Absorption of caffeine from tea, coffee, and Coca cola,” The Lancet, 301: 827, 1973, nos demuestra que no es así, como muestra la figura de abajo, extraída de dicho artículo, que muestra que tanto el té como la cafeína se absorben en sangre de forma similar y que la absorción de la cafeína de la Coca cola es más lenta que dichas infusiones.

¿Se absorbe la cafeína más rápido en la saliva durante la ingesta de café que de Coca-cola? No, como demuestran Anthony Liguori, John R. Hughes, y Jacob A. Grass, “Absorption and Subjective Effects of Caffeine from Coffee, Cola and Capsules,” Pharmacology Biochemistry and Behavior, 58: 721-726, 1997, en la siguiente figura de su “interesante” estudio sobre el tema.

Estos son sólo algunos pocos ejemplos del gran número de estudios que se han realizado sobre los efectos de la Coca-cola sobre la salud. Lo confieso, a mí no me gusta. ¿Y a tí?

El disfrute de un buen vino requiere de todos los sentidos, la vista, el olfato, el gusto y por supuesto también del tacto. La buena comida también requiere de todos los sentidos. Placer debe ser el comer. Placer debe ser el beber. ¿Se puede disfrutar de una tortilla de patatas fritas? ¿Y si es de Ferrán Adriá? Indudablemente uno de los mejores cocineros de España, aunque su “labia” no le llega a la “suela del zapato” a Karlos Arguiñano.

¿Tiene que tener buena “pinta” una buena patata frita? ¿Tiene que “sonar” bien en la boca al crujir? Sí, así es. Una patata frita “sabe” mejor si “suena” mejor. ¿A quién le importa? Obviamente mucho a los fabricantes de patatas fritas. Massimiliano Zampini y Charles Spence, han estudiado cómo cuantifican la frescura y el buen “crujido” de patatas fritas una serie de personas en función del ruido (sonido) que producen patatas fritas cuando son mordidas con los dientes (“The Role of Auditory Cues in Modulating the Perceived Crispness and Staleness of Potato Chips,” Journal of Sensory Studies, 19: 347-363, 2004). Mediante un micrófono han capturado el sonido del crujido y con un ecualizador han amplificado sus componentes agudas (de 2 a 20 kHz) reenviándolo mediante unos auriculares a cada participante. El resultado quizás sorprenda a algunos, cuanto más se amplifica el sonido o al menos sus componentes agudas, mejor califican los sujetos del estudio a las correspondientes patatas fritas (les parecen más frescas y más buenas).

La percepción multisensorial de la realidad ha sido ampliamente estudiada. Estos estudios demuestran que la riqueza de una experiencia sensorial es mayor cuantos más sentidos estén involucrados. Para el diseñador de un producto comercial es muy importante conocer bien qué va a ser el gente con su producto, cómo van a percibirlo con todos sus sentidos, con objeto de ofrecer una experiencia sensorial integral que maximice la recompensa del consumidor cuando adquiere dicho producto. La figura de la izquierda ilustra la “ilusión de Aristóteles”: la mayoría de la gente al tocar un sólo objeto con los dedos cruzados percibe dos objetos en lugar de sólo uno. Pruébalo.

La ilusión se basa en la constancia perceptiva de que los dos lados de los dedos tienen, normalmente, sensaciones de presión de dos cosas sólo cuando hay dos cosas. En la disposición de los dedos cruzados tal que un objeto toque simultáneamente aquellos dos lados, la que explica que se perciba que hay dos objetos entre los dedos.

Sharon Weinberger, “Military research: The Pentagon’s culture wars,” Nature News Feature, 455: 583-585, october 1, 2008 , nos recuerda que desde hace varios años, los militares norteamericanos están reclutando a científicos sociales para ayudarles en el desarrollo de tácticas “militares” sociopolíticas en “tiempos de paz” (¿la guerra de Irak ha acabado?). No es algo nuevo, propio de la Administración Bush, desde los 1960s, con el Proyecto Camelot, los EEUU quieren ser los “defensores de la paz mundial”, utilizando para ello la fuerza militar, claro está. ¿Cómo justificarlo? Contratando a civiles, científicos sociales, para asesorarles en cómo actuar sociopolíticamente. Así lo hicieron en Chile, en Congo o en Vietnam. ¿Qué científicos civiles contrataron? Preferentemente, antropólogos.

En la actualidad, las fuerzas de ocupación “pacíficas” en Irak, que para algunos se caracterizan por su “poco respeto, cultura y compasión,” se apoyan y asesoran con su Programa Territorio Humano (Human-Terrain System, HTS) en un grupo de antropólogos, científicos sociales civiles, que ayudan a los militares a determinar la población insurgente que deben ser tratados como “objetivos” en base a su “conocimiento de la cultura” local. El programa le cuesta al Pentágono unos 60 millones de dólares. Anecdóticamente han logrado salvar alguna que otra vida. De hecho, sólo hay 65 equipos HTS en Irak y 5 en Afganistán. Además, hay múltiples investigadores de apoyo en EEUU que estudian (investigan) la cultura local allende los mares desde su casita, lejos del peligro de los “terrorristas” (de hecho dos científicos sociales han sido asesinados, uno en Irak y otro en Afganistán).

Permitidme el sarcasmo: Como es obvio, los militares no tienen por qué ser cultos. Para eso están los civiles de apoyo y su “cultura” en cultura local.

¿Puede un científico civil asesorar a un mando militar a quién tiene que matar (quién es un enemigo potencial) y a quién no? Roberto González, antropólogo de la University of California, Berkeley, que está escribiendo un libro sobre el programa Territorio Humano, afirma que “no cree que haya lugar para un antropólogo en misiones de combate,” ni siquiera como asesor. “Eso está completamente en contra de las directrices éticas de la antropología (definidas por la AAA, Asociación Americana de Antropólogos).” De hecho, se supone que un antropólogo es un científico y debe desarrollar ciencia. El Pentágono parece que “quiere considerar la antropología como una disciplina aplicada que puede ayudar a los militares. ¿Por qué la antropología debe ser una especie de religión? ¿O una plataforma política? Se supone que es una ciencia,” afirma la doctora Montgomery McFate, antropóloga de la Yale University, autora de un reciente artículo sobre el tema.

Matt Tompkins, jefe de un equipo HTS en Bagdad, ni siquiera tenía el doctorado y recuerda que los miembros de su equipo no tenían experiencia de campo y su traductor a inglés era un marroquí que sólo balbuceaba el inglés. De hecho, en su opinión “los mandos militares no estaban particularmente interesados en nuestra labor.” Sin embargo, el coronel Martin Schweitzer, oficial en Afganistán, testificó ante el Congreso de EEUU que el programa Territorio Humano había ayudado a reducir el número de operaciones militares en la región entre un 60-70%. Algunos han criticado estos números, meras “estimaciones por la cuenta de la vieja” que no están apoyadas por los correspondientes informes técnicos.

El artículo de la freelance Sharon Weinberger es muy interesante. A mí me parece que Bush y el Pentágono lo que quieren es “lavarle la cara” a sus graves errores en la guerra de Irak y que mejor manera de hacerlo que recurriendo a la “religión de la ciencia”.

La entrada del “niño yuntero” sobre HTS contiene una entrevista también interesante.

La hora del desayuno es una hora tan buena como cualquier otra para experimentar con la física. Hoy hablaremos de la inestabilidad Rayleigh-Taylor, que aparece en la interface entre dos fluidos cuando el más denso flota encima del más ligero, como el aceite flotando encima del agua o el café encima de la leche. Esta inestabilidad se desarrolla cuando dos capas planas y paralelas de fluido inmiscible en equilibrio sufren una pequeña perturbación que hace que el fluido más pesado caiga hacia abajo por la gravedad y el más ligero suba hacia arriba.

La inestabilidad se nos muestra con la generación de una compleja red de patrones que los matemáticos asocian a estructuras fractales. ¿Quieres verlos? Prepara un poco de café y un buen vaso (tranparente) de leche. Vierte el café sobre el vaso, espera unos minutos y podrás observar como la estructura fractal surge espontáneamente. La siguiente figura muestra lo que podrás observar. Las fotos (a), (b) y (c) se han obtenido a los 10, 30 y 90 segundos, respectivamente, utilizando granos de café instantáneo (Nescafé) mezclados con tinta china, para que se vea mejor en la foto, vertidos con una pipeta sobre el vaso de leche. En las fotos de abajo se ha utilizado agua en lugar de leche para que se vea mejor el efecto.

El artículo de los japoneses Michiko Shimokawa y Shonosuke Ohta, “Annihilative fractals of coffee on milk formed by Rayleigh-Taylor instability,” ArXiv preprint, 15 sep 2008 , estudia la dimensión fractal de los patrones generados por inestabilidad de Rayleigh-Taylor para un poco café vertido en una taza de leche. Dicha dimensión fractal es de 1.88±0.06 (calculado utilizando la técnica de contar cajas o box counting). El comportamiento de este patrón fractal es muy curioso y se parece bastante al modelo matemático de una “alfombra” de Sierpinski (cuya dimensión es 1.89). Aparte de la dimesión, el análisis de la función de correlación entre ambos fractales muestra otras similutdes (los detalles técnicos en el artículo son fáciles de entender, para los interesados).

Según estos japoneses, este tipo de estructura fractal no ha sido observada en el pasado y la han bautizado como “fractal del café” (coffee fractal). Sugieren que su conexión con la alfombra de Sierpinski no es casual sino que el fractal del café se forma por aniquilación de la inestabilidad de Rayleigh-Taylor con el mismo patrón de construcción de Sierpinski. Aunque sus conclusiones, en mi opinión, son prematuras, han recibido el gran honor de que su trabajo sea snapshot en Nature, Katharine Sanderson, “Snapshot: How do you like your coffee?,” Nature 455, 579 ( 2008 ).

Curioso título para un artículo en Nature, Technology Feature: “Metabolomics: Wine-omics,” 455: 699 ( 2 October 2008 ). ¿Cómo afecta la composición química al sabor y al “cuerpo” de un vino? Kirsten Skogerson, de la University of California, Davis, quien estudió viticultura y enología decidió emprender una investigación en metabolómica en el laboratorio de Oliver Fiehn con objeto de contestar a dicha pregunta.

Ella confiesa que “hay muchas preguntas en la ciencia del vino que podrán ser contestadas gracias a un análisis global”. Una comprensión de la bioquímica de la fermentación de la uva. Actualmente, Skogerson y Fiehn están estudiando los “metabolomas” del vino con objeto de buscar los componentes químicos del vino que contribuyen a su cuerpo.

El cuerpo de un vino debido a la calidad de la uva de partida se aprecia mejor en un vino blanco del año. Skogerson y Fiehn han estudiado 17 vinos blancos diferentes utilizando técnicas de resonancia magnética nuclear (NMR), de cromatografía de gases (GC) y espectrometría de masas (MS) que les permiten identificar los metabolitos más importantes tanto del metaboloma de la uva como del de la levadura utilizada en su fermentación. La complejidad del metaboloma resultante para el vino es extrema. Aún así, su estudio ha identificado 413 metabolitos (una pequeñísima fracción del metaboloma) aunque sólo han podido identificar claramente 108 de ellos.

¿Qué correlación estadística hay entre la proporción de los metabolitos identificados y el cuerpo de cada vino según una encuesta a catadores profesionales? Los resultados muestran una fuerte correlación con la prolina (un aminoácido de tipo iminoácido). ¿Por qué? No lo saben. Esa es la parte difícil de los análisis metabolómicos encontrar las relaciones causa/efecto. Skogerson sugiere que quizás está relacionado con la viscosidad del vino.

Los vinos tintos tampoco se escapan de este tipo de estudios. Las técnicas de cromatografía han sido utilizadas para identificar múltiples metabolitos secundarios, como los polifenoles, es decir, flavonoides, taninos, y antocianinas. Que es bien sabido que influyen en la calidad de vida y la salud.

¿Influye conocer la bioquímica de una botella de vino a la hora de paladearla con placer? Según Skogerson, no. Aunque la ciencia puede elevar el arte de la fabricación de vino a su máximo nivel.

En tiempos de crisis no hay que olvidar que hay muy buenos vinos baratos, especialmente en ciertas denominaciones de origen. Por ejemplo, hay grandes Valdepeñas con una relación calidad/precio más que aceptable.

La cerveza hay que servirla con “cabeza” (como se dice en inglés: “head”), es decir, con más de un dedo de alto de espuma. Más aún, no hay que “forzar” la cosa. La evolución de la espuma tiene su tiempo y el bebedor debe saber esperar a que la espuma suba “a su ritmo”. Una caña bien tirada requiere un cierto tiempo de espera, por eso se recomienda que el primer sorbo sea profundo, largo, con “ganas”. En España, no sé el porqué, mucha gente sirve la cerveza prácticamente sin espuma pretendiendo que un cambio de recipiente es suficiente. Obvian el arte de tirar la cerveza. No tienen paciencia o no quieren tenerla: ¡cuánto hay que esperar! ¡Uhm! ¿Cuánto hay que esperar? ¿Cómo evoluciona la espuma de una cerveza?

La evolución sigue una curva exponencial, como es fácil comprobar con un experimento sencillo (Nick Fisher, “The physics of your pint: head of beer exhibits exponential decay,” Phys. Educ. 39: 34-35, 2004) Lo puedes hacer en casa o en clase con tus alumnos, pero el lugar ideal es un bar (solo o con tus alumnos), qué mejor lugar para hablar sobre física.

La espuma de la cerveza está formada por un gran número de burbujas de gas que explotan a un ritmo exponencial, ya que, como un material radiactivo, la tasa de explosión es proporcional al número de burbujas presentes (dB/dt ∝ -B, donde B es el número de burbujas).

¿Cuál es la cerveza ideal para el experimento? Yo recomendaría la Alhambra Reserva 1925, una extra lager de baja fermentación de sabor exquisito (aunque fuerte de graduación 6,4% vol.). Por supuesto, cualquier otra cerveza también sirve (no quiero que parezca que hago publicidad). Otra posibilidad es una cerveza con espuma cremosa gracias al nitrógeno como la Guinness o una cerveza de trigo, yo prefiero las turbias, como la Weihenstephaneres.

Si no quieres realizar el experimento o no te gusta lo suficiente la cerveza quizás prefieras una tabla con los valores experimentales. En el artículo de A. Leike, “Demonstration of the exponential decay law using beer froth,” Eur. J. Phys. 23: 21-26, 2002 (versión gratis en la página web del autor), que compara el resultado de 7 experimentos con Erdinger Weissbier, 4 con Augustinerbräu München y 4 con Budweiser Budvar, incluye detalles sobre el análisis estadítico de los resultados.

¡Ah! Por cierto, ¡cuidado con dónde os tomáis la cerveza! En la Fiesta de la Cerveza de Munich (Octoberfest), hace ya unos años, alguien se la tomó en un condón con graves consecuencias para su intestino: Stephan J. Ott, Thomas Helmberger, and Ulrich Beuers, “Intestinal obstruction after ingestion of a beer-filled condom at the Munich Octoberfest,” The American Journal of Gastroenterology 98: 512-513, 2004 .

En este blog hice de Rapel y predije que el precio del petróleo volverá a los dígitos (unos 80$ el barril a finales de septiembre). Era una predicción arriesgada y ahora tenemos el petróleo alrededor de los 100$. Las fuerzas del mercado quieren que baje pero la fuerza de los productores quieren que se mantenga por encima de las dos cifras. Mi predicción se basaba en un modelo de Didier Sornette para burbujas especulativas (Sornette es un especialista en predecir catastrófes, o mejor, en la teoría de las catástrofes que encumbró a René Thom a la cima de los genios). El sistema financiero internacional ha cambiado mucho en los últimos dos meses y dicho modelo quizás no sea aplicable ahora. Los productores de la OPEP han reducido la producción para contener el precio; China (y la India) parece que empiezan a notar la crisis (lo mismo que España tras 1992), aunque China no era el culpable del precio tan alto del crudo, para este año se espera que crezca menos del 10% y su segunda compañía de seguros cae en la bancarrota arrastrada por Fortis; los especuladores que se refugiaron en el mercado de futuros de las materias primas están viendo que el futuro no es tan alagüeño para la economía en general y para éstas en particular.

El Plan Paulson-Bernanke-Bush ha encontrado dificultades entre los congresistas que lo han rechazado por 225 votos en contra y 208 a favor. Parece que voces como las de Carter Dougherty han sido oídas. Revindicó el Modelo Sueco en el New York Times (traducción, traducción en El País). Algunos comparan el Plan de Bush con el que otrora llevó a Mexico a la bancarrota. Aunque el Plan de rescate no siga adelante, lo que está claro es que tanto la FED, como el BCE y otros bancos centrales tienen la obligación de inyectar dinero líquido en el sistema y ya han dado la orden de hacerlo, unos 630 mil millones de dólares. Aclaración [iescolar]: este tipo de inyecciones de capital consisten en préstamos a otro bancos privados a un interés muy reducido un breve tiempo, normalmente 24 horas, para que hagan frente a sus pagos y no haya problemas de liquidez en momentos complicados para la economía; ese dinero después se devuelve pasado el plazo pactado.

Curioso el mundo de la economía global… habrá que dejar de meterse en camisa de once varas (es decir, de unos nueve metros) [ver wiki].

A nadie le gusta que le pinchen con una jeringuilla. La punción a través de la piel humana mediante una aguja hueca es el procedimiento médico invasivo más utilizado para inyectar o extraer líquidos en el cuerpo humano. Los ingenieros tratan de desarrollar nuevas jeringas que no sean dolorosas y que “no se noten”. Una línea de investigación son las microagujas hipodérmicas, que penetran del orden de 1.5 mm en la piel sin provocar dolor. Sin embargo, se han encontrado grandes dificultades en su desarrollo (es muy fácil que se partan). La picadura del mosquito no se nota (y su probóscide no se parte). ¿Por qué no imitarla en el desarrollo de microagujas? Para ello necesitamos conocer la física y la mecánica de la picadura del mosquito. M. K. Ramasubramanian et al., “Mechanics of a mosquito bite with applications to microneedle design,” Bioinspir. Biomim. 3, 046001, 2008 , presentan un primer estudio de la mecánica de la picadura de un mosquito. Su interés no es biológico. Su objetivo es desarrollar nuevas microagujas que no causen dolor (que no “se noten”) y que no se partan fácilmente. Los diabéticos desearán estar atentos a sus progresos.

El mosquito es un insecto díptero cuyas hembras (no así los machos) beben sangre (ambos géneros se alimentan del néctar de plantas). La hembra en su picadura inyecta un anticoagulante y, a veces, virus causantes de enfermedades, tales como malaria, fiebre del dengue, fiebre amarilla, etc., de los que las “mosquitas” son vectores (propagan la enfermedad a partir de un ser humano enfermo a otro). ¿Cómo estudiar la mecánica de la picadura?

Igual que el vuelo de una mosca (o de un mosquito), el análisis de la mecánica de la picadura de un mosquito requiere el uso de cámaras de video de alta velocidad y de modelos matemáticos, necesarios para la “correcta” interpretación de los resultados experimentales. El probóscide de la “mosquita” es una microaguja polimérica compuesta de una material dúctil, la quitina (polisacárido que forma parte del cuerpo de muchos artóprodos). El modelo mecánico desarrollado por los autores aproxima el probóscide mediante un columna alargada (esbelta) soportada por una estructura elástica que sufre tanto cargas mecánicas no conservativas (tipo Beck) como conservativas (tipo Euler). No quiero entrar en los detalles técnicos. Los interesados en leer el artículo (pero no tienen acceso a las revistas del IOP) se alegrarán de saber que el artículo se basa en la tesis doctoral de uno de los autores (Oliver M. Barham) que está disponible gratuitamente en Internet. La tesis incluye códigos en Matlab para desarrollar las simulaciones del modelo matemático utilizado con lo que nos permite reproducir parte de los experimentos que han realizado los autores (de interés para profesores “curiosos”).

Desafortunadamente, las microagujas que se han fabricado hasta el momento imitando el probóscide del mosquito, fabricadas con silicio, con acero inoxidable o con titanio, suelen tener, más o menos, 1 mm de longitud, un diámetro de 40 μm y con una pared de una anchura de unas 1.6 μm. Sin embargo, son extremadamente frágiles y se rompen fácilmente mientras penetran en la piel. También se han propuesto microagujas flexibles fabricadas con polímeros (plásticos). Los autores creen que el gran hándicap en la fabricación de estas microagujas es que no se conoce con detalle la mecánica de la penetración del probóscide en la piel, con lo que su estudio, que trata de resolver este problema pretende ser un primer paso en esta interesante línea de trabajo. Aunque como siempre pasa en los primeros estudios de un campo nuevo, son más las preguntas que han surgido que las respuestas que se han ofrecido.

La Naturaleza siempre está por delante nuestra. Gracias a la selección natural, durante millones de años, ha logrado que las “mosquitas” posean un probóscide flexible, del tamaño de un cabello humano, que puede penetrar en la piel humana y succionar sangre sin que prácticamente lo notemos. ¡Qué maravilla de la Naturaleza! Los ingenieros tienen que estudiar la “biología” (biomecánica) para lograr ingenios biomiméticos capaces de lograr, con inteligencia, lo que una selección natural probabilística a logrado “a la perfección”.

Supongamos que el LHC del CERN descubre el bosón de Higgs. ¿Qué importancia “científica” tendría dicho descubrimiento para el “hombre de la calle”? Quizás lo más importante es que el bosón de Higgs sería un nuevo tipo de materia, el primero encontrado en más de un siglo. Es verdad que se han descubierto muchas partículas nuevas “parecidas” al electrón (neutrinos, quarks, etc.) y que se han descubierto muchas partículas nuevas “parecidas” al fotón (bosones W y Z, gluones, etc.), pero el bosón del Higgs sería la primera partícula elemental tipo bosón escalar encontrada en toda la historia. Un nuevo tipo de materia completamente “nuevo”.

La primera cuestión es ¿qué bosón de Higgs se ha descubierto? ¿Cómo…? ¿Hay más de uno? Bueno, hay muchos modelos matemáticos (teóricos) para una partícula “tipo” bosón de Higgs (una revisión técnica pero al mismo tiempo asequible es “HIGGS BOSONS: THEORY AND SEARCHES,” de G. Bernardi et al., Particle Data Group, November 2007; esta entrada también está basada en G. L. Kane et al., “What will we learn if a Higgs boson is found [at LEP2]?,” Phys.Rev. D64, 095013, (2001), ArXiv preprint).

Recapitulemos. Está el bosón de Higgs que aparece en la teoría electrodébil (en el Modelo Estándar) que dota de masa a los bosones vectoriales W y Z pero no al fotón. Se supone que este bosón podría dar también masa a los fermiones (electrones, neutrinos, quarks) pero posiblemente haya otros bosones de Higgs que se encarguen de ello. Pero también hay otros bosones de Higgs (otros modelos). El bosón de Higgs en las teorías supersimétricas es mucho más ligero y también se han propuesto modelos en los que el bosón de Higgs es una partícula compuesta de otros más elementales. Hasta que no se observe el Higgs y se determinen sus propiedades no sabremos “cuál/es es/son realmente.”

Un bosón de Higgs con un masa en reposo inferior a 130 GeV, pongamos 120 GeV (casi 128 veces la masa del protón), será supersimétrico casi con toda seguridad y vendrá acompañado de una “parejita” (otro bosón de Higgs). Con una masa entre 130 y 180 GeV será el del Modelo Estándar (un bosón único). Con una masa mayor hay muchas otras posibilidades, por ejemplo entre 180 y 230 GeV será un bosón compuesto (teorías de technicolor).

Una curiosidad, casi sorprendente, es que el primer bosón de Higgs encontrado no sea el más ligero (de menor masa en reposo) sino el segundo, que haya un bosón de Higgs más ligero que esté fuertemente desacoplado del resto del Modelo Estándar y que por ello haya sido “descartado erróneamente” en los límites a la masa del bosón de Higgs más ligero obtenidos con el LEP2 del CERN, que aseguran una masa mayor de 115 GeV. Para muchos investigadores esta posibilidad es la “más natural” ya que permitiría que el bosón de Higgs más ligero tuviera una masa en reposo similar a la masa de los bosones W y Z (ligeramente mayor que la del bosón Z). Ello evita que haya que realizar ciertos “malabarismos” técnicos para desplazar la masa en reposo del Higgs unos 30 GeV más que la masa del bosón Z, su valor “natural” (si suponemos que tiene unos 120 GeV).

¿Pero cómo es posible que un bosón de Higgs supersimétrico tenga una masa inferior al límite de 115 GeV obtenido con el LEP-2 del CERN? Si la ruptura de la simetría electrodébil es mediada por la supersimetría, entonces la masa de un bosón de Higgs tipo el del Modelo Estándar, que ha sido restringida por los resultados del experimento, no está relacionada con los acoplamientos de la fuerza débil en el Modelo Estándar y un bosón de Higgs supersimétrico no tendría que cumplir dicho límite inferior. En relación a este tipo de estudios, os recomiendo el reciente artículo de Puneet Batra, Eduardo Ponton, de la Universidad de Columbia, “The Supersymmetric Higgs,” ArXiv preprint, 22 Sep 2008 .

Para algunos autores es más “natural” un bosón de Higgs (supersimétrico) de baja masa que un Higgs del tipo del Modelo Estándar. Pero, ¿qué entendemos por “natural”? El Principio de Naturalidad, como el Principio Antrópico, es una guía para la selección de modelos teóricos con información estrictamente teórica, cuando no hay información experimental. Siguiendo al genial y premiado con el Nobel ‘t Hooft, el Principio de la Naturalidad nos dice que si la Naturalieza muestra un parámetro con un valor pequeño a cierta escala de energía, entonces necesariamente en el límite en el que el parámetro se vuelva nulo el sistema debe ganar simetría, debe tender a un estado más simétrico (para una descripción más técnica pero comprensible ver por ejemplo “NATURALNESS AND ELECTRO-WEAK SYMMETRY BREAKING,” de Romesh K. Kaul, ArXiv preprint, 26 May 2008 ) .

La Electrodinámica Cuántica (QED) y la Cromodinámica Cuántica (QCD) son teorías perfectamente naturales. Tanto en QED como en QCD la masa de las partículas (electrones y quarks) está asociada a una ruptura de la simetría y cuando estas masas se hacen cero, la simetría se recupera. Sin embargo, una teoría con un campo escalar que corresponda a una partícula elemental tipo bosón escalar (no se ha descubierto todavía ninguna) “no es natural” ya que su correspondiente masa no está asociada a ninguna simetría aproximada y hacer que tienda a cero no introduce ninguna simetría adicional. La teoría electrodébil (EW) no es natural porque requiere de un campo escalar (el bosón de Higgs) que destruye la “naturalidad” que podría tener la teoría.

La solución más sencilla al problema de la falta de naturalidad de la teoría electrodébil es suponer que el bosón de Higgs es una partícula compuesta (no elemental). Por ejemplo, una combinación sin espín (por eso es una partícula escalar) de un fermión y un antifermión. A esta solución se la denomina teoría del technicolor. De hecho, ambos fermiones, llamados techniquarks, podrían estar confinados en el bosón de Higgs (como los quarks en un protón) y por tanto no podrían ser observadas como partículas “separadas” (tampoco podemos observar a los quarks de esta forma). ¿Podrían ser los tecniquarks iguales a los quarks? No, en dicho caso deberían ser quarks top o cima (un cima y un anticima) pero un tal Higgs requeriría que la masa del quark cima fuera mayor que la experimentalmente medida en la actualidad.

El technicolor es una solución al problema de la naturalidad que no gusta a todo el mundo, especialmente por que hay otra solución (hay muchas más, por supuesto) que gusta a mucha más gente, la supersimetría, como descubrió R.K. Kaul en 1982. La supersimetría está rota pero se recupera cuando la masa de partículas escalares como los bosones de Higgs se hacen tender a cero, como exige el Principio de Naturalidad. Es una solución elegante y simple, que además sólo requiere teorías de tipo perturbativo, lo que simplifica la matemática. Por ello, es más “natural” concebir un bosón de Higgs como partícula supersimétrica que no siéndolo.

Un descubrimiento en el LHC que mataría “dos pájaros de un solo tiro” sería el descubrimiento de no uno sino dos bosones de Higgs con una masa del orden de 120 GeV, ya que ello casaría a la perfección con las predicciones del Modelo Estándar Minimal Supersimétrico (MSSM). Llamémosles Higgs Up (HU) y Down (HD). Uno de estos bosones de Higgs podría, incluso, tener una masa inferior a 115 GeV (de unos 95 GeV) y el otro una un poco más grande. Permitidme para acabar una “broma”: algunos claman que el bosón de Higgs es la “partícula de Dios”, pero si se descubrieran dos Higgs, ¿seguría siéndolo?

Me ha sorprendido encontrar en una entrada del Kanijo sobre neutralinos en el LHC, cuyas traducciones deben ser una lectura obligada para los buenos aficionados a la divulgación científica, la misma figura que yo he utilizado para ilustrar una entrada sobre la supersimetría. Yo confieso que la extraje de Symmetry, la revista que sustituyó en 2004 a FermiNews, la revista de noticias del Fermilab, en Chicago. La extraje de uno de los artículos de la sección “Explain in 60 seconds” (explícalo en un minuto). Quizás Kanijo la extrajo del mismo lugar. Quien sabe, pero todo esto me ha hecho pensar en los neutralinos. Hablaremos un poco de ellos y pondré otra ilustración “copiada” de dicha revista (la que ilustra la entrada “dark matter“).

Quizás el candidato más razonable para dar cuenta de la Materia Oscura en el Universo es la partícula supersimétrica estable más ligera LSP (lightest supersymmetric particle), que corresponde a materia oscura “fría” formada por partículas de tipo WIMP (weakly interacting particle), hipóteticas partículas cuya interacción con el resto de las partículas es muy débil, comparable a la interacción del neutrino; todavía no ha sido detectada ninguna WIMP, pero lo más razonable es que corresponda a una partícula supersimétrica, SUSY WIMP.

La supersimetría no es una simetría exacta de la Naturaleza (está “rota”) ya que no se la observa a baja energía. Todas las superpartículas tienen grandes masas que “creemos” se han generado en la ruptura de esta simetría que se produjo en los primeros momentos de la Gran Explosión (big bang). Como no hemos observado ninguna partícula supersimétrica en la actualidad a baja energía, hemos de suponer que son inestables y que en las primeras fases del big bang se desintegraron a pares (superpartícula-antisuperpartícula, por ejemplo) produciendo partículas supersimétricas de menor masa en reposo. La única partícula que puede haber sobrevivido a dicho proceso es la más ligera, que no puede desintegrarse en partículas supersimétricas de menor masa (sin violar la simetría de la supersimetría, la llamada paridad R, que evita que el protón se desintegre demasiado rápido y que en la actualidad existan protones). Las partículas LSP remanentes de este proceso, reliquias del big bang, serían entonces un buen candidato a materia oscura en el universo.

¿Qué superpartícula (spartícula) es el mejor candidato a partícula más ligera (LSP) ? Antes de 1984 se habían propuesto el fotino (sfotón), el gravitino (sgravitón), el sneutrino y el selectrón, pero el artículo de Ellis et al. “Supersymmetric relics from the big bang,” Nuclear Physics B, 238:453-476, 1984, mostró que la LSP más razonable era el neutralino, una superposición lineal del fotino y del zino (sbosón Z) junto a dos higgsinos (sbosones de Higgs) neutros. Hay cuatro posibles neutralinos según sea su composición, que depende de una matriz 4×4 a determinar experimentalmente siendo sus autovectores representantes de cada uno de los posibles estados masivos, la proporción de sus constituyentes (ver por ejemplo PDG SUSY página 15). El neutralino de menor masa es la partícula LSP responsable de la materia oscura (según los datos cosmológicos actuales) si su masa en reposo se encuentra en 90 y 400 GeV; según los aceleradores actuales, a la espera de los futuros resultados del LHC, el límite inferior de la masa del LSP es de 46 GeV con un 95 % CL (ver el valor en negrita en la primera página de PDG SUSY). Más sobre SUSY y LSP del PDG.

Hay una cuestión interesante que debemos indicar, los neutralinos (o al menos el más ligero) podrían tener masa nula o una masa extremadamente pequeña (como los neutrinos, una masa menor de 0.1 GeV), ver por ejemplo Stefano Profumo, “Hunting the lightest lightest neutralinos,” Phys. Rev. D 78, 023507, 2008 , ArXiv preprint, con lo que la partícula LSP candidato a materia oscura fría, de ser un neutralino, sería el que tenga una masa más pequeña del orden de los 100 GeV. En este sentido es interesante el artículo de John Ellis, “Sneutrino NLSP Scenarios in the NUHM with Gravitino Dark Matter,” ArXiv preprint, 23 July 2008 , que propone como candidato la siguiente partícula más ligera (NLSP, next-to-lightest supersymmetric particle).

El último párrafo de las conclusiones de este último artículo merece ser repetido aquí (traducido y abreviado). “El estudio de la escala de energías de los TeV con el LHC nos descubrirá física desconocida (‘unknown’). La supersimetría se considera muchas veces como una “desconocida conocida” (‘known unknown’, es decir, “una desconocida familiar”), en el sentido de que aunque no sabemos si existe, creemos que sabemos cómo será si existe. John Ellis nos recuerda que la supersimetría podría ser una “desconocida desconocida” (‘unknown unknown’, es decir, “una desconocida de verdad”), en el sentido de que no sólo no sabemos si existe, sino que tampoco sabemos cómo podría ser. Hay muchas posibilidades, especialmente en el sector que involucra los sgravitinos.” Yo os añado, recurriremos al LHC para aclararnos al respecto.