U. HEINTZ, “TOP QUARK MASS MEASUREMENTS AT THE TEVATRON,” ArXiv Preprint, 6 June 2008. [emulenews en Menéame] La nueva estimación de la masa del quark cima, 172.6±1.4 GeV, con un error por debajo del 1%, decrece el límite superior (si el Modelo Estándar es correcto) de la masa del Higgs hasta como mucho 160 GeV (al 95% de confianza), resultando 114 < mH < 160 GeV, es decir, entre 121 < mH < 170 veces la masa del protón (0.938 GeV). Son buenas noticias para la búsqueda del Higgs en el LHC. De interés para aficionados a la física. [¡¡noticia en portada de Menéame!!]

El quark top es la partícula elemental de más masa conocida hasta el momento. Los nuevos datos se han obtenido en el Tevatrón, que se encuentra en el Fermilab, a las afueras de Chicago, EEUU, en colisiones protón-antiprotón a la friolera de 1.96 TeV (tera-electrón-voltio). Recuerda que en su arranqeu, el LHC empezará con colisiones similares pero a 2 TeV (aunque la “luminosidad”, la probabilidad de detectar ciertas “cosas”, del LHC es mayor que la del Tevatrón). La idea de que el fin del mundo está próximo es completamente descabellada (en los rayos cósmicos, de hecho, se obtienen energías cientos de veces mayores y “no pasa nada”). Días, horas, y minutos para el arranque del LHC (cuenta atrás para los físicos) [emulenews en Menéame] Relacionada con meneame.net/story/lhc-cern-ya-tiene-fecha-arranque donde se anunciaba que el arranque del LHC ya tiene fecha. Pues bien, aquí tenéis un contador (basado en dicha fecha) para poder publicar en meneame la noticia del encendido del LHC un día antes. Ánimo, a ver quién es el primero. [¡¡otra noticia en portada de Menéame!!]

http://es.youtube.com/watch?v=BXzugu39pKM

Lo que NO pasará cuando arranque el LHC del CERN.

El Modelo Estándar de las Partículas Elementales no explica ni la masa, ni la carga, ni la espín, de las partículas elementales conocidas, sino que impone dichos valores a partir de la evidencia experimental. En palabras de Feynman (traducidas) “Aún queda por resolver una característica muy poco satisfactoria (del Modelo Estándar): las masas de las partículas elementales observadas. No se conoce teoría que explique estos números. Los usamos en todos nuestros cálculos, pero no los entendemos (¿por qué tienen los valores que tienen? ¿de dónde vienen estos números?). En mi opinión (la de Feynman) este es uno de los problemas, desde el punto de vista fundamental (teórico), más serios e interesantes.”

La figura de arriba, extraída de un artículo de E.L. Koschmieder, “Theory of the Elementary Particles,” ArXiv Preprint, 2008, que propone una “explicación”, nos indica que la masa de los mesones (partículas formadas por un quark y un anti-quark) estables siguen un comportamiento lineal en función de la masa del mesón estable más ligero (el pión, partícula predicha por Yukawa). Esto ya se sabía de hace años… pero no había una explicación dentro del Modelo Estándar. Koschmieder trata de explicarla de forma no ortodoxa (numerológica) aludiendo a que refleja una teoría subyacente todavía desconocida. Este tipo de trabajos “numerológicos”, normalmente tienen una capacidad predictiva “cuantitativa” muy limitada (dan aproximaciones burdas). Por ejemplo, en la “teoría” de Koschmieder la masa del neutrino electrónico (el más ligero de los 3 neutrinos conocidos) es igual a la masa del neutrino muónico (el segundo por masa) multiplicada por la constante de estructura fina (que indica la “fuerza” de la fuerza electromagnética entre partículas elementales). Como nadie conoce la masa de los neutrinos (se sabe que no es nula, pero no su valor, sólo la diferencia entre masas de los neutrinos se puede estimar teórica y experimentalmente sin una medida directa)… lo dicho, … como nadie la conoce, pues, por ahora, cualquier valor es “bueno”.

La numerología es una de las “ramas” de la Física más denostada y criticada por todos los “científicos de pro”. Aunque hay grandes físicos que han sido grandes defensores de la misma, como el propio P.A.M. Dirac o A.S. Eddington, la opinión estándar es relacionarla con el principio antrópico (defendido por “famosos” de la talla de S.W. Hawking) y concluir que de sus conclusiones aproximadas no se obtiene ciencia “verdadera”. De todas formas, recordad la importancia que tuvo darse cuenta de que el protón y el neutrón (aparentemente tan distintos) eran la “misma” cosa (hoy en día, le llamamos nucleón), que introdujo el espín isotópico y con él gran parte de la moderna teoría cuántica de campos aplicada a partículas elementales (sustento del Modelo Estándar).

En esta línea, acaba de aparecer el artículo de T. A. Mir, G. N. Shah, “Order in the mass spectrum of elementary particles,” ArXiv preprint, que propone explicar la figura de arriba usando como parámetro la diferencia de masa entre el pión (hadrón tipo mesón) y el muón (leptón, tipo de electrón de mayor masa). Este nuevo artículo alude a que dicha diferencia (29.318 MeV) es una “unidad fundamental” de masa. De curiosidades “numerológicas”, la vida está llena.

La numerología siempre me recuerda a la famosa “estética” de la proporción del número phi o número dorado o número mágico o phi = (1+raizcuadrada(5))/2 y a la aparición de los números de Fibonacci en biología. Cuando lees ciertas páginas web y artículos de divulgación parece que es completamente “verdad” que estos números aparecen por doquier (verdad numerológica). ¿Realmente aparecen los números de Fibonacci en la distribución de pétalos en las flores? Dedicaremos uan futura entrada de este blog a este “peliagudo” tema. Sólo quiero adelantar, que científicamente no es así. Hay flores de ciertas especies de plantas que sí siguen una distribución de este tipo, pero la gran mayoría no. Estadísticamente, es mera casualidad. Pero y lo que bonito que queda deshojar (“despetalear”) una margarita (que sí, que no, que sí, que no, …) si uno no sabe cuántos pétalos tiene. De la especia más común en España, hay flores con n (no digo cuántos ni si es par o impar) pétalos, pero que excepcionalmente también presentan n+1 o n-1 pétalos (con menor probabilidad pero nada despreciable). ¿Tienes alguna margarita a mano?

Para saber más (todo un clásico): G. J. Mitchison, “Phyllotaxis and the Fibonacci Series,” Science, 196: 270-275, 15 April 1977. Y un libro curioso, Mario Livio, “The Golden Ratio. The Story of Phi, the World’s Most Astonishing Number,Broadway Books, New York, 2002, que está traducido al español “La proporción aúrea,” 3ra. ed., Ariel, 2006.

Demostraciones tan importantes como la reciente demostración de la conjetura de Poincaré por Grisha Perelman (o hace unos años la demostración de Wiles del, así llamado, último teorema de Fermat) siempre se encuentran con el mismo hándicap: ¿para qué sirven? Por supuesto que son grandes avances de la Matemática, pero para la mayoría de nosotros, la cuestión que resuena en nuestras mentes es ¿para qué sirven? ¡Tantos años para una demostración que te haga famoso! Obvia al “demostrador” le son muy útiles (medallas Fields y otros premios importantes), sobre todo para pasar a la Historia de esta Magna disciplina.

La respuesta es muy simple. Tras la demostración, ciertas técnicas sólo del dominio de unos pocos matemáticos en el mundo se vuelven famosas, populares y MILES de otros matemáticos las estudian (por su fama, ya que en otro caso nunca lo hubieran hecho sólo por su importancia). Son estos otros matemáticos, siempre en el anonimato (para los grandes mass media), los que responden a la pregunta, encontrando múltiples problemas que se resuelven con las técnicas utilizadas en la demostración original. Seguramente ya sabrás que las técnicas de curvas elípticas racionales y modulares usadas por Wiles se utilizan en criptografía (cifrado de datos). ¿Para qué sirve la técnica de flujos de Ricci desarrollada por Perelman? Acaba de aparecer una aplicación al cáncer, al modelado del crecimiento de tumores: Tijana T. Ivancevic, Vladimir G. Ivancevic, “Ricci Flow Model for Avascular Tumor Decay Control,” ArXiv preprint, 5 June 2008 .

El artículo propone el uso de un modelo basado en el flujo de Ricci para el control de la formación de tumores multicelulares no irrigados (avasculares). Este modelo predictivo puede permitir un mejor control del proceso de proliferación celular en el cáncer, control que podrás ser interferido con medicamentes y, por tanto, con múltiples aplicaciones médicas. En concreto, los autores proponen una terapia basada en anticuerpos monoclonales (obviamente, todavía sólo una idea).

El desarrollo de tumores pasa por 3 etapas distintas, la avascular, la vascular y la metastática. Muchos tumores, en su primera etapa de desarrollo, en laboratorio (in vitro), forman agregados multicelulares esféricos 3-dimensionales, MTS, como el de la figura (fotografiado al microscopio, exhibiendo un extenso sistema de ramas, que en el medio celular in vivo se ramificarían en los tejidos vecinos al tumor).

(c) Guiot et al. Theoretical Biology and Medical Modelling 2007 4:4

Los autores proponen aplicar las técnicas matemáticas geométricas de flujo de Ricci desarrolladas por Hamilton y Perelmal para la demostración de la conjetura de Poincaré para el análisis de las ecuaciones de reacción-difusión que modelan la formación y crecimiento de las MTS, previamente desarrolladas en T. Roose, S.J. Chapman, P.K. Maini, “Mathematical Models of Avascular Tumor Growth,” SIAM Review, 49(2), 179-208, 2007 (gratis). Sin entrar en detalles técnicos, lo más interesante es el uso que hacen de la entropía de Perelman para el flujo de Ricci que aplican al análisis termodinámico de la ecuación del calor en el modelo de MTS. Para mí es curioso que la idea de Perelman de llamar a su funcional no decreciente como entropía acabe resultando en que “realmente” es la entropía de algo.

En resumen, para los matemáticos un artículo que merece la pena leer. Para los demás, espero que les haya dejado un “buen sabor de boca” saber que la Demostración de Poincaré sirve para algo tan importante como ayudar en el tratamiento de “lo común” en las más de 150 enfermedades que metemos en el “paraguas” del cáncer (que en 2007 mató a más de 7.6 millones de personas en todo el mundo).

Para saber más:

R. Álvarez-Nodarse, “Modelos matemáticos en biología: un viaje de ida y vuelta,” Bol. Soc. Esp. Mat. Apl., 1-40, preprint. Fácil de leer y comenta el modelado de crecimiento de tumores.

Claes Johnson, tan friki e iconoclasta como siempre, junto a Johan Hoffman y colaboradores son los artífices del proyecto “Applied Mathematics: Body & Soul,” un programa para la reforma de la Educación Matemática. Uno de cuyos resultados es la publicación de una serie de libros con su novedoso enfoque. Empezaron con “Computational Differential Equations,” anunciando su versión “Advanced Computational Differential Equations,” que nunca vio la luz, yo llegué a encargarla en una librería, esperándola durante cerca de un año, para finalmente anular el pedido, sin que nadie supiera si se iba o no a publicar. Han publicado en su lugar 4 volúmenes como parte de la serie “Body and Soul“.

¿Por qué se han embarcado en tan osada contienda? Por supuesto porque son unos frikis. Pero también por razones “varias” que exponen en su libro “Dreams of Calculus – Perspectives on Mathematics Education.” Un estudio del Ministerio de Educación Sueco publicó el 28 de mayo de 2004 un informe sobre la situación actual de la enseñanza de las matemáticas en Suecia y sobre la posibilidad de cambiar los programas de estudio. El informe fue escrito por más de 100 personas, pero sólo 1 profesor de matemáticas, y en particular ningún experto en matemática aplicada o computacional. Los resultados del informe fueron claros: (1) No hay ninguna crisis en la educación matemática hoy en día. (2) No hay necesidad de cambiar la eduación matemática debido a la existencia de los ordenadores. Obviamente, Johnson y colaboradores no estaban de acuerdo. El proyecto “Body & Soul” ha surgido porque: [1] Hay una “crisis” en la educación matemática. [2] El ordenador exige un cambio sustancial en cómo se enseña matemática. La aproximación del proyecto es la siguiente: el sistema educativo actual asume que la educación se basa en la ciencia, mejor aún, la educación actual debe basarse en la ciencia contemporánea. Un ejemplo, en un segundo curso de ingeniería, en una asignatura de matemáticas, ¿por qué no hablarle a los alumnos de la ciencia de la turbulencia? ¿Por qué no mencionar que es uno de los premios Clay? ¿Por qué no contar “brevemente” las técnicas que se están usando para resolver este problema? ¿Por qué no contarle al alumno lo que ha pasado en los últimos 10 años en la ingeniería, en lugar de contarle lo que pasó hace más de un siglo?.

¡¡Se dice fácil!! ¿Pero qué profesor tiene el nivel para hacerlo?

De buenos propósitos está lleno el mundo.

Un problema: ¿Cuál es la diferencia entre las dos afirmaciones siguientes?

En la línea de Johnson, también se encuentra el reciente libro de (un genio) Hairer, “L’analyse au fil de l’histoire,” con su “eterno” colaborador Wanner (en inglés aparecerá este año, en julio, “Analysis by Its History“). Uno de esos pocos libros que, tras su lectura, a uno le gustaría traducir al español (aviso a navegantes “con 2 c…”).

Los “Google Custom Search Engine” son motores de búsqueda tipo Google que podemos desarrollar nosotros mismos para buscar en ciertos sitios web o páginas web específicas. Uno de nosotros se pega el “curro” de buscarlas y los demás disfrutan de esa posibilidad de la Web 2.0.

Nuestro amigo David (léase en inglés) ha desarrollado uno para los “Open Access Journals“, revistas de acceso abierto. En estas revistas, los costes de publicación los pagan los autores, pero a cambio la suscripción a la revista es totalmente gratuita. Por lo demás son exactamente iguales que cualquier otra revista científica (con revisión por pares, etc.).

Lánzate a buscar artículos técnicos (normalmente en inglés) utilizando David’s Open Access Journals. Todo son ventajas, entre ellas, la total compatibilidad con el formato de búsqueda de Google (al que la mayoría ya estamos acostumbrados). Enhorabuena David, un buen trabajo.

El artículo de Assaf Shomer, “A pedagogical explanation for the non-renormalizability of gravity,” ArXiv preprint, February 5, 2008, presenta un argumento corto, simple e intuitivo para explicar por qué la gravedad es una teoría cuántica de campos no renormalizable. El origen de la incompatibilidad entre la Mecánica Cuántica y la Gravedad se explica en una sola frase: “El espectro de alta energía de cualquier teoría cuántica de campos en d dimensiones es una teoría cuántica conforme en d dimensiones, lo que no es cierto para la gravedad de Einstein.” Este argumento conduce a fuerte contradicción entre la densidad de estados en la gravedad deducida vía la entropía de Bekenstein-Hawking para los agujeros negros, y la densidad de estados para cualquier teoría cuántica de campos renormalizable.

Las teoría de “grupos” de renomalización de Wilson y coautores explica cómo varían los parámetros de una teoría cuántica de campos conforme la energía considerada en los procesos implicados aumenta. Incluso en las teorías de campos cuánticas más sencillas, la mayoría de los cálculos de parámetros experimentalmente medibles conduce valores infinitos cuando se integra el momento (o la energía) en los diagramas de Feynman correspondientes desde 0 hasta infinito. Sin embargo, todas las teorías de campo son teorías efectivas que explican la realidad en un cierto rango de energías, es decir, existe una energía de corte, una escala de energías a partir de la cual la teoría no es aplicable. Sin embargo, realizar los cálculos integrando sólo entre 0 y el corte no conduce a una teoría cuántica válida (se pierde la unitariedad). La solución a este conflicto es renormalizar la teoría.

El artículo proclama que la teoría de la gravedad (clásica) es la teoría efectiva a baja energía de una teoría de alta energía que no es un teoría cuántica de campos. Para ello asume que la gravedad permite describir el comportamiento de los agujeros negros, al menos, en la región del horizonte de sucesos (para agujeros supermasivos en esta región la curvatura del espacio es muy pequeña). Sin embargo, la fórmula de Bekenstein-Hawking está en contradicción con el límite a baja energía de una teoría cuántica de campos renormalizable. Afirmar que la gravedad es no renormalizable es equivalente afirmar la validez o aplicabilidad de la fórmula de Bekenstein-Hawking.

En resumen, un artículo técnico pero fácil de leer que afirma que la graveda no es una teoría de campos efectiva que corresponda a una teoría cuántica de campos a alta energía si ambas tienen que estar “acopladas” mediante renormalización de parámetros.

Fragmento de “Cántico Cuántico,” de Ernesto Cardenal

Partículas que surgen de la nada y vuelven al olvido. Viajan del vacío al vacío. “La palabra realidad no es utilizable para las partículas.” En principio no hay el vacío absoluto. O un vacío absoluto en todos sentidos. El electrón puede no haber salido de ninguna parte pero dejó algo en la nada de donde salió, una especie de hueco en el vacío, o invisible burbuja de nada. “La posición de una partícula en el espacio es dependiente de su posición en el tiempo.” La gravedad es el espacio-tiempo curvado, enrevesado. Y al mismo tiempo el espacio-tiempo tiene estructura de espuma y se desvanece como la espuma sobre la arena. ¡Caótico mar donde aun la noción común de lugar desaparece! Y donde el mismo espacio puede cambiar y moverse (y hacerse espuma).

Abajo: Antigua imagen (popular) de la Vía Láctea (similar a Andrómeda).

Arriba: Nueva imagen (técnica) de la Vïa Láctea. (c) Science, 2008.

Imagen (técnica) de la Vía Láctea. (c) NASA, 2005.

Habrá que acostumbrarse a la nueva imagen de la Vía Láctea. Las dos primeras imágenes de arriba están sacadas del artículo de Phil Berardelli, “The Milky Way Gets a Facelift,” ScienceNOW Daily News, 03 June 2008 . Siempre habíamos pensado que nuestra Vïa Láctea era como Andrómeda, pero no es así. La imagen de más abajo de las 3, de la NASA, aparece en wikipedia desde hace ya varios años. Habrá que comparar estas dos últimas imágenes. Las nuevas observaciones presentadas por dos grupos de investigación en el 212th meeting of the American Astronomical Society in St. Louis, Missouri, revelan que la Vía Láctea tiene “muy debilitados” dos de sus cuatro brazos espirales. Más aún el brazo central es casi el doble de grande de lo que se pensaba. Como se muestra en la figura, obtenida por un grupo de investigación que ha utilizado el Telescopio Espacial Spitzer para estudiar la friolera de 110 millones de estrellas de nuestra galaxia. Los datos se han confirmado por otro equipo que ha utilizado uno de los telescopios terrestres más poderosos, el Very Long Baseline Array.

Lo dicho, si pensabas que conocías la foto de nuestra Galaxia, que obviamente es imposible de hacer porque nos encontramos dentro de ella. Lo siento. Es mucho más complicada de lo que pensabas.

En una entrada anterior ya hablamos de la historia del espín, esa mágica propiedad cuántica relativista de las partículas. Ahora, un poco más de historia de la mano de la revista internacional Nature, que presenta su serie de Milestones (grandes hitos), por primera vez, sobre un tema de física: el espín. Recomiendo acceder a dicho enlace. Presenta los descubrimientos más importantes sobre el espín desde 1896, incluyendo referencias bibliográficas clásicas.

Encontraréis tópicos tan importantes como el efecto Zeeman (1896), el experimento Stern-Gerlach (1922), el espín del electrón (1925), que explicó el efecto Zeeman, la ecuación de Dirac (1928), que explicó el espín del electrón, el isoespín (1932), que explica que el neutrón y el protón son la “misma” partícula, el desarrollo de las memorias magnéticas (1950s) o de la magnetoresistencia gigante (1988), responsable de los modernos discos duros.

Los hitos históricos de Nature, también incluyen enlaces a artículos de la propia revista. Entre los artículos seleccionados os recomiendo el review de Claude Chappert et al. “The emergence of spin electronics in data storage,” Nature Materials 6, 813-823, 2007, que explica muy bien la magnetoresistencia gigante y que nos introduce en el futuro de los dispositivos de almacenamiento nanomagnéticos.

Si antes del 31 de Agosto de 2008 os registráis (es gratuito, yo estoy registrado desde hace años, y de vez en cuando se tienen oportunidades como ésta) tendréis acceso a toda una serie de artículos publicados en revistas del grupo de Nature (Incluyendo Nature Physics, Nature Materials) relacionados con el espín (por ejemplo, los de física fundamental). Ánimo. Si sabes inglés, tienes un par de meses para leer interesantísimos artículos. Os recomiendo los de espintrónica.

El proyecto chebfun es una colección de algoritmos, y un sistema software basado en Matlab orientado a objetos, iniciado por Nick Trefethen y Zachary Battles en 2002, que extiende la potencia de los métodos numéricos al tratamiento “casi” simbólico de funciones continuas y continuas a trozos. Incluye algoritmos continuos para algoritmos como la descomposición QR o la SVD. Todo se basa en métodos espectrales o desarrollos de Fourier-Chebyshev. Es espectacular.

Algunos ejemplos:

¿Cuál es la integral de exp(-sqrt(x)) entre 0 y 10? >> x = chebfun(‘x’,[0 10]); sum(exp(-sqrt(x))) ans = 1.647628069579947

¿Cuál es el máximo local de la función sin(x)+sin(x2) en el mismo intervalo? >> max(sin(x)+sin(x.^2)) ans = 1.985446580874099

¿Cuántas raíces tiene la función de Bessel J0(x) entre 0 y 1000? >> length(roots(chebfun(@(x) besselj(0,x),[0 1000]))) ans = 318

Y muchas más cosas… En resumen “Métodos Numéricos con Funciones en lugar de con Números”. Gracias, Nick.

Interesante artículo el de MARCEL CODERCH, “Renacimiento nuclear: un parto con fórceps,” El Pais, lunes 2 de junio de 2008 . El gran problema de las centrales nucleares de nueva construcción es que son muy caras debido al alto precio del petróleo. Avalado por un informe del MIT realizado en 2003.

“El declive nuclear no fue consecuencia del accidente de Three Mile Island de 1979 ni del movimiento ecologista que desencadenó. La primera crisis del petróleo hirió de muerte el programa nuclear mundial. En EE UU los pedidos de centrales nucleares cayeron desde las 35 unidades en 1973 hasta las cero unidades en 1978, sin que hasta el día de hoy se haya cursado un solo pedido más… Se incrementó los costes de construcción y las tasas de interés, hundiendo la rentabilidad de estas inversiones. Ésta y no otra es la verdadera historia de la moratoria nuclear: el pago durante 25 años de unas inversiones fallidas que se hicieron siguiendo una planificación indicativa estatal promovida por las eléctricas pero de la que tuvimos que responder todos.

En los últimos cuatro años, los precios del petróleo y otras materias primas se han cuadruplicado y están induciendo un repunte de las tasas de interés, lo cual incide directamente en los costes de construcción de las nucleares. Nos enfrentamos quizás a una época de menor crecimiento, con un repunte inflacionista, y eso nos coloca en una situación análoga a la que provocó el primer declive nuclear… no parece el mejor escenario para un renacimiento nuclear que requeriría centenares de miles de millones de euros de nuevas inversiones durante décadas.”

O en resumen: “Si fuera cierto, como dicen sus defensores, que los problemas de la energía nuclear están resueltos o en vías de solución, y que no genera emisiones, entonces, ¿por qué no resolverlos de una vez y desplegarla a toda marcha, como en Francia? Y si no es cierto que están resueltos, y no vemos el modo de resolverlos, ¿por qué construir unas pocas centrales, que no serán suficientes para mitigar el cambio climático ni la crisis energética y, en cambio, sí incrementarían los riesgos y la dimensión de unos problemas que llevan décadas sin resolverse?”