La londinense Elizabeth Rosemond Taylor

Aznar lo hizo, Rodríguez también, y sin lugar a dudas muchos otros. Cambiar de imagen para parecer más atractivo es fundamental a la hora de recabar el voto presidencial. Si Hillary fuera candidata, a pocos días de las elecciones americanas, me estaría preguntando cómo ha cambiado su imagen desde enero. Hoy me pregunto, ¿influye la “belleza” de Sarah Palin en el voto a McCain? No soy el único. Ella cree que sí, al menos su asesor de imagen está muy bien pagado. Rachel Zelkowitz, “Right Look Trumps the Right Stuff,” ScienceNOW Daily News, 31 October 2008 , nos recuerda que los estudios científicos indican que los votantes consideran políticamente más competentes a las (mujeres) políticas cuya cara es más atractiva.

Ya se había demostrado la importancia del atractivo (independientemente del sexo) en los candidatos a la presidencia en Alexander Todorov, Anesu N. Mandisodza, Amir Goren, and Crystal C. Hall, “Inferences of Competence from Faces Predict Election Outcomes,” Science 308: 1623-1626, 2005. Pero, ¿cómo influye el sexo del candidato?

Se acaba de publicar Joan Y. Chiao, Nicholas E. Bowman, Harleen Gill, “The Political Gender Gap: Gender Bias in Facial Inferences that Predict Voting Behavior,” PLoS ONE 3: e3666, october 31, 2008 [el artículo es gratuito y de fácil lectura]. El estudio de Joan Chiao, de la Northwestern University en Chicago, Illinois, utilizó caras de políticos (candidatos a la Cámara de Representantes Americana), tanto hombres como mujeres. En una primera fase se pidió a diferentes sujetos que midieran el atractivo, la competencia, lo dominante y lo próximo que aparentaban ser los correspondientes candidatos (tras presentar su foto durante sólo 1 segundo). Más tarde, se seleccionaron 106 conjuntos de parejas de fotos y se pidió a los sujetos que decidieran a quién votarían en una hipotética elección presidencial en la que se presentaran ambos candidatos (sólo en función de su cara).

Los resultados no dependen del sexo del votante (tanto hombres como mujeres muestran la misma tendencia). En general, los candidatos masculinos y femeninos en los que se ha percibido una mayor competencia son los preferidos (esto ya había sido demostrado en estudios anteriores y sirve de chequeo del presente estudio). La novedad: en el caso de las candidatas, el atractivo físico es el mejor predictor del resultado del voto (en hombres no es un buen predictor). Tanto hombres como mujeres votantes prefieren a las mujeres candidatas a las que han calificado (en el primer test) como más atractivas.

Para Chiao los resultados indican que la idea de que el candidato más atractivo es más capaz para su futuro cargo sólo se aplica a las mujeres (candidatas). ¿Ha tenido en cuenta este sesgo sexual McCain a la hora de elegir a Palin como futura vicepresidenta?

Rima IV

No digáis que agotado su tesoro, de asuntos falta, enmudeció la lira: Podrá no haber poetas; pero siempre habrá poesía.

Mientras las ondas de la luz al beso palpiten encendidas; mientras el sol las desgarradas nubes de fuego y oro vista;

mientras el aire en su regazo lleve perfumes y armonías; mientras haya en el mundo primavera, ¡habrá poesía!

Mientras la ciencia a descubrir no alcance las fuentes de la vida, Y en el mar o en el cielo haya un abismo que al cálculo resista;

mientras la humanidad siempre avanzando, no sepa a dó camina; mientras haya un misterio para el hombre, ¡habrá poesía!

Mientras sintamos que se alegra el alma sin que los labios rían; mientras se llora sin que el llanto acuda a nublar la pupila;

mientras el corazón y la cabeza batallando prosigan; mientras haya esperanzas y recuerdos, ¡Habrá poesía!

Mientras haya unos ojos que reflejen los ojos que los miran; mientras responda el labio suspirando al labio que suspira;

mientras sentirse puedan en un beso dos almas confundidas; mientras exista una mujer hermosa, ¡Habrá poesía!

(Gustavo Adolfo Bécquer)

Fuente y explicación de la foto.

Katharine Sanderson, “Sticky tape generates X-rays. How weird is that?,” Nature News, 22 October 2008 , nos comenta el artículo de los investigadores de la Universidad de California, Los Angeles, Carlos G. Camara, Juan V. Escobar, Jonathan R. Hird, Seth J. Putterman, “Correlation between nanosecond X-ray flashes and stick-slip friction in peeling tape,” Nature, 455: 1089-1092, 23 October 2008 , en el que muestran que “desenrollar” una cinta adhesiva en una cámara de vacío puede producir rayos X suficientes para tomar una imagen de uno de los dedos de los investigadores (como vuestra el vídeo; lo siento, está en inglés). La cinta utilizada es Photo Safe 3M Scotch Tape (ancho 19 mm, rollos de 25.4 m).

La triboluminiscencia es la producción de luz visible debido al movimiento relativo entre dos superficies en contacto (a veces nos saltan chispas cuando nos quitamos un abrigo de lana, por ejemplo). En laboratorio se había demostrado que también se producen rayos X. Los autores del artículo muestran dicho fenómeno con cintas adhesivas (de las habituales en cualquier escritorio). En un vacío moderado, se produce tanto emisión visible, como ondas de radio y emisión de rayos X (pulos de unos 100 mW, miliwatios). Estos fenómenos son similares a la descarga que algunos sufren al bajar de un coche y tocar el dedo la puerta, o en los hoteles con moqueta al tocar el picaporte de una puerta. Para mucha gente no es sólo un fenómeno visible sino también incómodo y/o doloroso. Los autores del artículo han observado pulsos de rayos X con una energía pico de 15 keV, suficientes para producir una imagen de rayos X en una película estándar de radiología.

La tribología es la rama de la ciencia que estudia los fenómenos asociados al rozamiento (fricción) entre superficies. La triboelectrificación es un fenómeno conocido desde la antigüedad aunque su explicación física microscópica no es conocida con todo detalle. Por ejemplo, para la cinta adhesiva de los vídeos se ha propuesto que el fenómeno es debido a las fuerzas de van der Waals pero su baja energía difícilmente puede explicar la generación de fotones (luz); este fenómeno fue descubierto N.E. Harvey, “The luminescence of adhesive tape,” Science, 89: 460-461, 1939 . De hecho, el fenómeno mostrado en el vídeo, la emisión de rayos X en un vacío moderado, se conoce desde hace mucho tiempo (fue descubierto en 1953 por los rusos Karasev, Krotova, y Deryagin, en un artículo en ruso).

Los investigadores californianos han utilizado un radiómetro de rayos X de alta eficiencia y han encontrado que los pulsos emitidos son ultracortos (duran nanosegundos) lo que indica que la emisión se origina en una región submilimétrica cercana al vértice entre la cinta que se despega y la que está adherida al tubo. En dicho vértice la acumulación de carga eléctrica durante el proceso de “despegado” de la cinta es muy alta, cuatro órdenes de magnitud superior a la habitual en otros fenómenos triboeléctricos similares.

Los autores del nuevo artículo en Nature proponen como explicación para el fenómeno observado el “efecto lente”, el enfoque (no lineal) de la radiación electromagnética emitida en el espectro visible que logra incrementar la energía final del pulso hasta el régimen de los rayos X: Conforme la cinta es despegada, el adhesivo acrílico se carga positivamente y el rollo de polietileno se carga negativamente, lo que produce una diferencia de potencial y un campo eléctrico que produce las descargas (chispas). En un ambiente con presión reducida (vacío), las descargas aceleran los electrones a energías en las que pueden emitir rayos X cuando colisionan con la cara de la cinta cargada positivamente (fenómeno de Bremsstrahlung). La intensidad de la emisión es suficientemente fuerte como para ser usada como fuente en fotografía de rayos X (utilizan en el vídeo una placa típica de las usadas en radiografía dental).

El vídeo aparecido originalmente en la revista Nature con una duración de 8:37 lo tenéis en youtube en:

http://es.youtube.com/watch?v=r63e5y3Z3R8

"Buen articulo Morton. Trabájalo un poco más hasta que parezca mio."

Hay algunas cosas que parecen obvias, pero a veces alguien te las tiene que contar para que te des cuenta de ello. Por ejemplo, los investigadores “viejos” que siguen en activo son mucho más productivos que los “jóvenes”. Los investigadores “viejos” que no siguen en activo, obviamente no producen. Lo acaban de “descubrir” los canadienses Yves Gingras, Vincent Lariviere, Benoit Macaluso, Jean-Pierre Robitaille, “The effects of aging of scientists on their publication and citation patterns,” ArXiv preprint, 23 oct 2008 . A mí me parece la “cuenta de la vieja”, pero Geoff Brumfiel, “Older scientists publish more papers. Age is no barrier to productivity,” lo acaba de aprovechar para publicar en Nature, 28 oct 2008 , que no es “moco de pavo,” aunque él lo tiene fácil pues es periodista científico de la propia Nature desde 2002.

Los investigadores de la Universidad de Quebec, en Montreal, Canadá, estudiaron las publicaciones de casi 14.000 investigadores y encontraron que los que cincuentones y sesentones publican casi el doble de artículos que los treintañeros. Más aún, sus artículos son altamente citados. Los investigadores que se mantienen productivos son más productivos. ¡Gran descubrimiento!

Obviamente, nos comenta Brumfield que ha dicho Anthony van Raan de la Universidad de Leiden en Holanda, “Mayor impacto no es lo mismo que originalidad,” en cualquier caso, “es mejor dejar que los investigadores que no quieran jubilarse puedan continuar su trabajo, ya que pueden ser muy productivos.”

Hay algo que el estudio no ha tenido en cuenta, los investigadores “senior” suelen tener grupos de investigación más grandes, de ahí que publiquen más, y con miembros “junior” (estudiantes pre y postdoctorales) en su “mejor” momento de productividad y creatividad, de ahí que logren gran impacto.

Otro factor a recordar es que los investigadores “senior” en sus campos suelen ser mucho más conocidos en los círculos científicos, respetados y en muchos casos hasta admirados. Además, les es más fácil lograr fondos públicos y privados para subvencionar sus investigaciones.

En cualquier caso, como me decía un buen amigo (catedrático de universidad español de 63 años) aún en activo: “este año va a ser mi mejor año,” en cuanto a número de artículos publicados e índice de impacto de las revistas en las que se han publicado. Más aún, me decía, “el año pasado fue mi mejor año.” Por cierto, este amigo está enamorado de la ciencia y sigue trabajando hasta los domingos. ¡Envidio su buen estado de salud mental! Espero con su edad ser capaz de producir al menos la mitad de lo que él es capaz.

También admiro a otro amigo, quien cumplió el año pasado la friolera de 90 años, quien sigue viniendo al despacho que le han prestado (ya no está oficialmente vinculado con la universidad) todos los lunes, miercoles y viernes, sin falta, a primera hora, para seguir aprendiendo, para seguir enseñando. ¡Bravo!

La numerología es el “arte” de ver “lo que uno quiere donde no lo hay”. Aunque pueda parecer broma, muchos grandes genios de la física y de la matemática han “creído” en la numerología. De todos es conocido que Newton dedicó la segunda parte de su vida a la política, en su parte pública, y a la numerología bíblica, en su parte privada (“alquimista” de vocación, quiso descubrir lo que Dios había escribo en la Biblia, en su idioma “original”, para que sólo los “supergenios” como él lo descubrieran). En el s. XX ha habido muchos “genios” numérologos, pero destacan entre todos dos grandes genios, Dirac y Eddington.

El valor numerológico de ciertas magnitudes suele ser una aproximación muy mala al valor exacto, pero muchas veces pasan décadas hasta que los físicos experimentales logran demostrar la diferencia (encontrar el valor exacto). Cuanto mayor incertidumbre tenga una magnitud, mejor para el numerólogo (quien más confiará en ella). Por ejemplo, ¿cuántas partículas elementales hay en el universo? Unas 10^80 más o menos. Bien para el numerólogo, el “disfrutón de los más o menos.”

Al grano, Dragan S. Hajdukovic (el de la foto), nos presenta en “Pions- lords of the Universe,” ArXiv preprint, 26 oct 2008 , una relación “mágica” entre la masa del pión (hay 3 piones), la constante de Hubble (difícil de medir experimentalmente) y las constantes físicas fundamentales. Aclaro. Hay 3 piones, uno neutro (π0) con masa 134.98 MeV/c^2, que en realidad son dos partículas “idénticas” formadas por una pareja quark-antiquark (abajo-antiabajo o arriba-antiarriba), y dos piones cargados (π+ y π-) con masa 139.57 MeV/c^2, también formados por una pareja quark-antiquark (arriba-antiabajo y abajo-antiarriba). La constante de Hubble mide la “velocidad” de expansión del universo, un parámetro extremadamente difícil de medir cuyo valor ha fluctuado durante todo el s. XX y sigue haciéndolo en la actualidad en el contexto de un universo que se expande de forma acelerada.

El artículo se inicia con la fórmula “aproximada” (aunque tiene un signo de igualdad) que vemos a la izquierda, que notó por primera vez el Premio Nobel Steven Weinberg en su famoso libro “Gravitation and Cosmology.” El autor “mejora” esta aproximación y sugiere una interpretación para la misma: el vacío cuántico del universo está dominado por la contribución de un gas de piones virtuales de masa gravitatoria nula, por eso no han sido detectados como materia ordinaria (bariónica). El autor sugiere que este gas de piones virtuales son la energía oscura, es decir, más del 70% del universo. Los piones son los “señores” del Universo, según el autor, aunque yo he preferido “los másters del universo.”

Nunca se sabe si las coincidiencias numerológicas encierran algo de verdad, alguna “misteriosa” verdad aún por descubrir. Cuando se “eleva” una coincidencia a “verdad” absoluta, se obtienen “nuevas leyes” de la Naturaleza. Por ejemplo, Dirac (1937-1938) supuso que el cociente H/G (donde H es la constante de Hubble y G la constante de gravitación universal de Newton) es constante en el tiempo desde la Gran Explosión hasta el momento presente. Como H varía desde el inicio de la Gran Explosión, G también debe variar. Dirac “predecía” gracias a su “teoría” la gran debilidad de la gravitación en el presente: un universo antiguo nos da una gravedad débil. Como es bien sabido, dicha relación es incompatible con todo nuestro conocimiento actual sobre cosmogonía (el origen y evolución del universo). Actualmente es insostenible.

Hajdukovic mejora la fórmula de Weinberg, proponiendo la que aparece a la izquierda. En la que reemplaza H0 (que no es constante) por una magnitud de valor comparable a ella que es “aparentemente” constante. En concreto, Ω es la densidad de energía total del universo relativa a la densidad crítica para que el universo sea plano y rH = c/H es el llamado radio de Hubble del Universo. Esta relación es “aparentemente” mucho más exacta que la anterior, pero sigue teniendo cierta incertidumbre (por ejemplo, qué valor se usa para la masa del pión). El autor afirma que la relación anterior tiene una profunda y misteriosa relación con la energía oscura que “domina” el universo en la actualidad. Es debida a la existencia de un gas de piones virtuales sin masa gravitatoria (¿?) que tiene una temperatura “gravitacional”, el responsable último de la energía oscura (que actualmente no tiene explicación convincente, pero se modela como una constante cosmológica de Einstein no nula).

¿Dónde está la energía oscura en la fórmula anterior? Para dejar más clara su idea propone una fórmula aún más precisa todavía (también aparece a la izquierda), que tiene en cuenta el número de grados de libertad de un pión nf y ΩΛ la densidad de energía oscura. Despejando esta última de esta nueva fórmula se obtiene un valor cercano al observado experimentalmente en el WMAP. Pero, cuidado, ¿cuántos grados de libertad tiene un pión? ¿Quién lo sabe? Bueno, el autor propone que ¡es obvio! que son 48 (será para que todo le cuadre).

Este juego de fórmulas, estimaciones, parámetros imposibles de determinar (como nf) a los que se les da un valor “razonable” (bueno, se “ajusta” para que todo funcione y luego se justifica que es el valor más razonable) es muy habitual en el campo de la numerología. En este sentido el artículo de Hajdukovic es un excelente ejemplo y merece ser comentado por ello, aunque sin olvidar que no estamos hablando de “ciencia” sino de “religión.”

PS: por cierto, tres fórmulas matemáticas en una sola entrada y además, todas “mentira”. ¡Qué fuerte!

http://www.nanotoday.com/covercomp.html

Murray Gell-Mann (1929-) dominó el campo de las partículas elementales en los 1960s con sus ideas sobre cómo sistematizar (cual Mendeléyev) la inmensa cantidad de datos experimentales sobre partículas “elementales” que se obtuvieron en dicha década (recibió el Nobel de Física en 1969). Utilizó como herramienta la teoría de grupos continuos (de Lie) compactos. Su introducción en 1964 de los quarks como “entes matemáticos,” independientemente también lo hizo George Zweig, útiles para sistematizar los hadrones, los bariones y los mesones conocidos en aquella época (hoy sabemos que estaban constituidos por los tres quarks más ligeros, arriba, abajo y extraño). Gell-Mann nunca pensó que fueran partículas de verdad. Si lo fueran, como tienen carga eléctrica no entera deberían haber sido fácilmente “vistos”. Por supuesto, tras los experimentos en el SLAC de Stanford en 1969 y su interpretación por parte de Richard Feynman y James Bjorken, entre otros, en términos de “subpartículas” elementales (partones, más tarde llamados quarks), Gell-Mann se convirtió en un gran defensor de la naturaleza “real” pero “oculta” de los quarks. Técnicamente, están confinados en los hadrones de tal forma de que no son accedibles experimentalmente. Hoy en día los físicos experimentales “ven quarks” por doquier en sus diagramas de bloques tipo LEGO (“mira un quark por aquí, mira, otro por allá).

Leí un artículo, hace ya bastantes años (ahora soy incapaz de encontrarlo en el “dios” Google), en el que Gell-Mann afirmaba que el mayor reto de la física teórica era descubrir cómo obtener la versión cuántica de (“cuantizar”) una teoría de campos basada en grupos de Lie no compactos. Problemas como la aparición de probabilidades negativas, es decir, la ausencia de unitariedad (por ejemplo, para el grupo SL(2,C), ver J.P. Hsu, M.D. Xin, “Incompatibility of unitarity and gauge symmetry in the SL(2,C) Yang-Mills field theory,” Phys. Rev. D 24: 471-474, 1981, o J.P. Hsu, T.Y. Shi, “Unitarity and invariant Lagrangians under Yang-Mills-Weyl transformations,” Il Nuovo Cimento A, 79: 321-332, 1984), o la no renormalizabilidad (entre otras dificultades técnicas) parecen extremadamente difíciles de resolver.

¿Por qué preocuparnos por las teorías de campos basadas en grupos no compactos? Este tipo de grupos aparecen siempre que se trata de “cuantizar” la gravedad. Un uso reciente es la “teoría simple para todo” de Garrett Lisi basada en el grupo excepcional E8 de la que ya hemos hablado. La propuesta de Lisi es el uso de la técnicas de cuantización BRST (Becchi-Rouet-Stora-Tyutin). Aplicada a la cuantización de teorías basadas en grupos compactos no parece muy complicada. Un ejemplo sencillo e ilustrativo en el caso abeliano lo tenéis en D. R. Bes and O. Civitarese, “Illustrations of the Becchi-Rouet-Stora-Tyutin invariance by means of simple toy models,” Am. J. Phys. 70: 548-555, 2002 . ¿Qué pasa en el caso no compacto? ¿Qué dificultades surgen? ¿Es prometedora en dicho caso esta técnica? La verdad no lo sé. El único artículo que parece agarrar el toro por los cuernos es el de A.E. Margolin, V.I. Strazhev, “Yang-Mills field quantization with noncompact gauge group,” Modern Physics Letters A, 7: 2747-2752, 1992, pero sólo ha sido citado 1 vez en el ISI WOS, lo que es “mala señal”.

¿Ha habido avances recientes en la cuantización BRST de teorías de campos basadas en grupos no compactos? La verdad es que no había estado al loro de este campo en los últimos años y no lo sé. Tendré que estar más al loro, es un campo que promete recibir mucha atención en los próximos años.

Flujo de energia en un vehiculo con un motor de combustión interna convencional (ICE), con un motor hibrido (HICE) y con una célula de combustible (AFC).
Flujo de energía en un vehículo con un motor de combustión interna convencional (ICE), con un motor híbrido (HICE) y con una célula de combustible alimentado por hidrógeno (AFC).

Buena pregunta. He encontrado un artículo de hace unos años que trata de contestar dicha pregunta: Nurettin Demirdöven y John Deutch del prestigioso M.I.T., en “Hybrid Cars Now, Fuel Cell Cars Later,” Science, 305: 974-976, 2004, compararon la eficacia energética de vehículos de combustión interna convencionales, vehículos híbridos, con un motor eléctrico basado en baterías que complementa al motor convencional, y vehículos basados en células de combustible (fuel cells) alimentados con hidrógeno.

El análisis de los autores muestra que energéticamente lo más conveniente tanto para la industria como para los gobiernos es favorecer prioritariamente el desarrollo de los vehículos híbridos. Por supuesto, en 2004 la tecnología de vehículos basados en células de combustible estaba en pañales y los autores hicieron su comparación basándose en un modelo teórico para la eficacia energética en lugar de probar tres vehículos diferentes en el mismo circuito.

El artículo/charla de Reinhold Wurster, “Pathways to a Hydrogen Refueling Infrastructure Between Today and 2020,” Fuel Cell Teach-in European Commission DGTren, Brussels, July 11/12, 2002, considera las expectativas de la tecnología de vehículos a motor con células de combustible en el contexto de la legislación y el mercado europeos (con énfasis en Alemania). En una visión positiva. El peor caso puede ser mucho más descorazonador.

¿Cómo influirá la evolución del precio del crudo en estas expectativas? Hoy está por debajo de los 70$ y aunque se espera que suba (reunión “urgente” de la OPEP en noviembre para reducir la producción) creo que tendremos un petróleo alrededor de los 75$ durante un par de años. La peor noticia posible para las energías alternativas.

¿Cuándo notará en su bolsillo el españolito de a pie la reducción del precio del crudo? En las gasolineras, la evolución “natural” de los precios del crudo debería notarse en enero de 2009, pero coincide que entonces dejará de venderse la gasolina “super” (97 octanos) por normativa europea. ¿Cómo afectará al precio de los otras? Lo que está claro, hasta el Ministro Montilla lo tiene claro, es que el gasóleo volverá a ser significativamente más barato que la gasofa. ¿Quién se acuerda de las protestas de los camioneros que sesgarón vidas humanas?

Espectacular video en el que un avión de combate “vuela” a la velocidad del sonido. La onda de choque que rodea al avión supersónico (F-14) comprime el aire tanto que provoca que la humedad ambiental forme una nube de vapor (el cambio brusco de presión causa que la temperatura baje brúscamente, lo que si hay humedad en el ambiente provoca que el vapor de agua se condense en gotitas que conforman la nube que vemos). Precioso.

Bueno, seamos fieles a la verdad, el avión del video no está volando ni a la velocidad del sonido ni por encima de ella, sino por debajo. ¿Cómo? Técnicamente, la nube de condensación de Prandtl-Glauert se puede formar fácilmente a velocidades altas, pero inferiores a la velocidad del sonido. No puede considerarse una “prueba” de que el avión de combate vuela por encima de la barrera del sonido o de que ha roto dicha barrera.

De hecho, normalmente, los contenidos de humedad necesarios para que se produzca este fenómeno se suelen dar a “baja” altura y los aviones supersónicos tienen prohibido volar tan bajo (salvo en caso de conflictos bélicos, etc.). En cualquier caso, qué bonito es disfrutar de este precioso fenómeno.

Simetría SU(4) de sabor (4 quarks). En el plano C=0 la simetría SU(3) de sabor (3 quarks) de la vía óctuple del Nobel Murray Gell-Mann.

¿Qué es una partícula elemental? Un “objeto” con “momento”, “energía”, “masa”, “espín”, y algunas “cargas” localizado en el espaciotiempo (en un lugar del espacio en un momento dado).

Sea una partícula elemental “libre” (no sujeta a fuerzas externas). ¿Qué es el momento (lineal)? Si las propiedades de un “objeto” físico “aquí” son las mismas (invariantes) que “allí”, hay algo que se conserva, es el “momento”. ¿Qué es la energía (total)? Si las propiedades de un “objeto” físico “hoy” son las mismas (invariantes) que “mañana”, hay algo que se conserva, es la “energía”. ¿Qué es la masa? Para un “objeto” libre, la energía (total) es energía cinética (masa) que depende de su velocidad. Si el “objeto” puede estar en reposo, la energía cinética en dicho caso es la “masa” (en reposo). Si el “objeto” no puede estar en reposo, tiene “masa” nula. ¿Qué es el momento cinético (angular)? Si las propiedades de un “objeto” físico “sólido” son las mismas independientemente del ángulo con la que las veamos, hay algo que se conserva, es el momento cinético. Para una partícula elemental que es un “objeto” puntual, no sólido, la conservación del momento cinético es trivial. “Sorprendentemente,” la teoría de la relatividad de Einstein “obliga” a que toda partícula elemental tenga un “momento cinético interno” que se denomina “espín”. Lo descubrió “físicamente” Dirac para el electrón, pero en teoría de grupos era algo conocido hacía tiempo (las representaciones espinoriales de grupos).

En Física Matémática, toda magnitud “conservada” en un sistema físico es resultado de una simetría en su descripción matemática (teorema de Emmy Noether). En Matemáticas, las simetrías son descritas utilizando teoría de grupos (de transformaciones). Una simetría es lo que no cambia ante la acción de un grupo (de transformaciones). Si f(x,t) es la función que describe una partícula elemental localizada en el espaciotiempo en (x,t), ¿cómo podemos garantizar que describe un “objeto” con “momento”, “energía”, “masa”, y “espín”? Basta con que f corresponda a alguna representación del grupo de Poincaré (la invarianza ante traslaciones y rotaciones en el espacio tiempo). Es decir, f deberá ser una “función” (representación) escalar, pseudoescalar, vectorial, pseudovectorial, espinorial, tensorial, etc. No entraré en detallar qué es una representación de un grupo y en concreto representaciones de grupos de Lie (como el de Poincaré) que modelan simetrías continuas (cuyos parámetros son diferenciables y permiten utilizar el concepto de álgebra de Lie).

La asociación de partículas (libres) con representaciones del grupo de Poincaré dota de significado a conceptos abstractos como “momento”, “energía”, “masa” y “espín”. Una elección “adecuada” del espacio al que pertenece la función f que describe la partícula automáticamente garantiza valores “medibles” para dichos conceptos.

Las partículas elementales se observan en la Naturaleza en clases (o tipos). Ciertas interacciones (colisiones, desintegraciones, etc.) se observan sólo entre ciertos tipos de partículas. “Abusemos” del lenguaje un poco. Hay partículas machos (fermiones) y hembras (bosones). A los machos les gusta “normalmente” interactuar con las hembras (las interacciones entre fermiones “normalmente” están mediadas por bosones). Aunque a algunos machos les gusta interactuar con otros machos (hay fermiones que interactúan con fermiones en teorías como la de Fermi para la fuerza débil) y a algunas hembras les gusta interactuar con otras hembras (hay bosones no lineales que interactúan entre ellos como los gravitones). También hay “lucha” de clases. Hay machos de ciertas “clases” que prefieren interactuar con hembras “de su misma clase” y no con hembras de otras clases, y viceversa. Lo mismo pasa con las iteracciones hombre-hombre y hembra-hembra.

¿Qué propiedad caracteriza las “clases” de partículas elementales en función de sus interacciones? Las “cargas” (topológicas) asociadas a ciertas simetrías. Cargas como la eléctrica (QED), la de color (QCD), o cargas “efectivas” como el isoespín o la hipercarga (“extrañeza”). ¿Qué simetría es la responsable de la “conservación” de estas “cargas”? O mejor, ¿la invarianza respecto a qué simetría conduce a la aparición de estas cargas conservadas? Obviamente, se trata de una simetría “interna” (propia) de la partícula elemental. Algo que “no vemos” cuando “vemos” a la partícula en un lugar y un momento determinados del espaciotiempo. Sabemos que está ahí cuando observamos cómo interactúa la partícula con otras. El “trato” entre partículas nos muestra de qué clase son. La única partícula no clasista, que interactúa con todas las demás, es el gravitón (aún no observada) que es responsable de la fuerza de la gravedad. Las demás partículas son “clasistas”. La “lucha de clases” entre partículas nos indica que “poseen” simetrías internas.

La descripción matemática de las simetrías internas requiere la introducción de ciertos grupos (continuos o de Lie) “internos” que se aplican al espacio (de representación del grupo de Poincaré) al que pertenece la función matemática que describe a cada partícula. Grupos como U(1), responsable de la carga eléctrica (invarianza de fase), SU(2), responsable de la fuerza electrodébil a alta energía, SU(3), responsable de la carga de “color”, responsable de la fuerza fuerte entre quarks a alta energía, etc. ¿Por qué decimos que ciertos grupos sólo aparecen a alta energía? Porque las simetrías que “vemos” muy claras a alta energía, “no se ven” a baja energía, parece como si hubieran desaparecido “parcialmente”. Decimos que la simetría está rota. La simetría SU(2) de la fuerza electrodébil está rota a baja energía y observamos dos fuerzas muy distintas, el electromagnetismo y la fuerza débil. La simetría SU(3) de color de la fuerza fuerte está rota a baja energía donde es imposible observar los quarks (fermiones coloreados) que sufren dicha fuerza sino estados compuestos sin color (“blancos”) que aparentan ser partículas elementales (hadrones clasificados como bariones y mesones).

Hay simetrías “aproximadas” que podríamos calificar de “accidentales”, como la vía óctuple de Gell-Mann basada en SU(3) que explica las partículas (hadrones, es decir, bariones y mesones) “formadas” por 3 quarks (los menos masivos) denominados arriba, abajo y extraño. Introdujo el concepto de hiperarga (“extrañeza”) como magnitud que se conserva en una partícula si uno de sus constituyentes es un quark extraño. Para Gell-Mann, en esa época, los quarks eran meros “instrumentos” matemáticos que “expresaban” las simetrías internas de las partículas, se necesitó casi un década para obtener pruebas experimentales de su existencia (hoy en día, los físicos experimentales afirman “ver” quarks por doquier). El esquema SU(3) le permitió predecir una partícula con 3 quarks extraños que fue detectada experimentalmente. El descubrimiento del cuarto quark nos llevó a un modelo SU(4), como en la figura que inicia esta entrada. En la actualidad se conocen 6 quarks porque lo que la simetría “aproximada” de Gell-Mann “correcta” es SU(6), llamada SU(6) de sabor. Esta simetría es “buena” para los 3 quarks más ligeros, pero su poder predictivo es “pobre” en el caso general, debido a la gran diferencia de masas entre los quarks. Hay una diferencia de 5 órdenes de magnitud entre la masa del quark más ligero (up, arriba) y el más pesado (top, cima).

Descubrir una nueva simetría entre las partículas elementales significa que hay nuevas “cargas” (propiedades) asociadas a ellas que las hace “clasistas” y que ciertas interacciones entre partículas están prohibidas (reglas de selección) porque estas “cargas” no se conservarían en dichas interacciones. Estas “nuevas” simetrías estarán rotas, porque a baja energía no se las observa (creemos que conocemos muy bien lo que pasa a “baja” energía). Estas “nuevas” simetrías conducirán a resultados “no esperados” a alta energía. Garrett Lisi y su “teoría “simple” para todo” introducen nuevas simetrías que deberán estar rotas a baja energía. En su trabajo no dice cómo se rompen (la ruptura puede ser espontánea, ocurrió en el Big Bang de forma “natural”, o dinámica, hay una cierta combinación de factores que llevó a que se produjera, por ejemplo, en el contexto del principio antrópico). Garrett elige un grupo de simetría interna para todas las partículas conocidas, E8, y las representa utilizando ciertas “representaciones de grupos” de ciertos subgrupos de E8 (que es muy rico en subgrupos). ¿Y contiene su teoría al Modelo Estándar? Lisi lo impone, seleccionando ad hoc (arbitrariamente) que así sea. Él elige (impone) que la teoría (lagrangiano) así sea. El grupo de Lie E8 puede ser muy bello pero su lagrangiano (“el del” modelo estándar) no lo es y además es muy “artificial”. Lo ideal sería una ruptura espontánea de la simetría de E8.

Sin palabras: “el gráfico del pánico,” donde se puede apreciar la “escandalosa” coincidencia entre el gráfico actual del Dow Jones con el de la crisis de 1929 y el temor a que esa coincidencia continúe [visto en euribor.com].

Poema “Sin Palabras” de Adelardo López de Ayala

Mil veces con palabras de dulzura esta pasión comunicarte ansío; mas, ¿qué palabras hallaré, bien mío, que no haya profanado la impostura?

Penetre en ti callada mi ternura, sin detenerse en el menor desvío, como rayo de luna en claro río, como aroma sutil en aura pura.

Ábreme el alma silenciosamente, y déjame que inunde satisfecho sus regiones, de amor y encanto llenas…

Fiel pensamiento, animaré tu mente; afecto dulce, viviré en tu pecho; llama suave, correré en tus venas.