Claes Johnson, tan friki e iconoclasta como siempre, junto a Johan Hoffman y colaboradores son los artífices del proyecto “Applied Mathematics: Body & Soul,” un programa para la reforma de la Educación Matemática. Uno de cuyos resultados es la publicación de una serie de libros con su novedoso enfoque. Empezaron con “Computational Differential Equations,” anunciando su versión “Advanced Computational Differential Equations,” que nunca vio la luz, yo llegué a encargarla en una librería, esperándola durante cerca de un año, para finalmente anular el pedido, sin que nadie supiera si se iba o no a publicar. Han publicado en su lugar 4 volúmenes como parte de la serie “Body and Soul“.

¿Por qué se han embarcado en tan osada contienda? Por supuesto porque son unos frikis. Pero también por razones “varias” que exponen en su libro “Dreams of Calculus – Perspectives on Mathematics Education.” Un estudio del Ministerio de Educación Sueco publicó el 28 de mayo de 2004 un informe sobre la situación actual de la enseñanza de las matemáticas en Suecia y sobre la posibilidad de cambiar los programas de estudio. El informe fue escrito por más de 100 personas, pero sólo 1 profesor de matemáticas, y en particular ningún experto en matemática aplicada o computacional. Los resultados del informe fueron claros: (1) No hay ninguna crisis en la educación matemática hoy en día. (2) No hay necesidad de cambiar la eduación matemática debido a la existencia de los ordenadores. Obviamente, Johnson y colaboradores no estaban de acuerdo. El proyecto “Body & Soul” ha surgido porque: [1] Hay una “crisis” en la educación matemática. [2] El ordenador exige un cambio sustancial en cómo se enseña matemática. La aproximación del proyecto es la siguiente: el sistema educativo actual asume que la educación se basa en la ciencia, mejor aún, la educación actual debe basarse en la ciencia contemporánea. Un ejemplo, en un segundo curso de ingeniería, en una asignatura de matemáticas, ¿por qué no hablarle a los alumnos de la ciencia de la turbulencia? ¿Por qué no mencionar que es uno de los premios Clay? ¿Por qué no contar “brevemente” las técnicas que se están usando para resolver este problema? ¿Por qué no contarle al alumno lo que ha pasado en los últimos 10 años en la ingeniería, en lugar de contarle lo que pasó hace más de un siglo?.

¡¡Se dice fácil!! ¿Pero qué profesor tiene el nivel para hacerlo?

De buenos propósitos está lleno el mundo.

Un problema: ¿Cuál es la diferencia entre las dos afirmaciones siguientes?

En la línea de Johnson, también se encuentra el reciente libro de (un genio) Hairer, “L’analyse au fil de l’histoire,” con su “eterno” colaborador Wanner (en inglés aparecerá este año, en julio, “Analysis by Its History“). Uno de esos pocos libros que, tras su lectura, a uno le gustaría traducir al español (aviso a navegantes “con 2 c…”).

Los “Google Custom Search Engine” son motores de búsqueda tipo Google que podemos desarrollar nosotros mismos para buscar en ciertos sitios web o páginas web específicas. Uno de nosotros se pega el “curro” de buscarlas y los demás disfrutan de esa posibilidad de la Web 2.0.

Nuestro amigo David (léase en inglés) ha desarrollado uno para los “Open Access Journals“, revistas de acceso abierto. En estas revistas, los costes de publicación los pagan los autores, pero a cambio la suscripción a la revista es totalmente gratuita. Por lo demás son exactamente iguales que cualquier otra revista científica (con revisión por pares, etc.).

Lánzate a buscar artículos técnicos (normalmente en inglés) utilizando David’s Open Access Journals. Todo son ventajas, entre ellas, la total compatibilidad con el formato de búsqueda de Google (al que la mayoría ya estamos acostumbrados). Enhorabuena David, un buen trabajo.

El artículo de Assaf Shomer, “A pedagogical explanation for the non-renormalizability of gravity,” ArXiv preprint, February 5, 2008, presenta un argumento corto, simple e intuitivo para explicar por qué la gravedad es una teoría cuántica de campos no renormalizable. El origen de la incompatibilidad entre la Mecánica Cuántica y la Gravedad se explica en una sola frase: “El espectro de alta energía de cualquier teoría cuántica de campos en d dimensiones es una teoría cuántica conforme en d dimensiones, lo que no es cierto para la gravedad de Einstein.” Este argumento conduce a fuerte contradicción entre la densidad de estados en la gravedad deducida vía la entropía de Bekenstein-Hawking para los agujeros negros, y la densidad de estados para cualquier teoría cuántica de campos renormalizable.

Las teoría de “grupos” de renomalización de Wilson y coautores explica cómo varían los parámetros de una teoría cuántica de campos conforme la energía considerada en los procesos implicados aumenta. Incluso en las teorías de campos cuánticas más sencillas, la mayoría de los cálculos de parámetros experimentalmente medibles conduce valores infinitos cuando se integra el momento (o la energía) en los diagramas de Feynman correspondientes desde 0 hasta infinito. Sin embargo, todas las teorías de campo son teorías efectivas que explican la realidad en un cierto rango de energías, es decir, existe una energía de corte, una escala de energías a partir de la cual la teoría no es aplicable. Sin embargo, realizar los cálculos integrando sólo entre 0 y el corte no conduce a una teoría cuántica válida (se pierde la unitariedad). La solución a este conflicto es renormalizar la teoría.

El artículo proclama que la teoría de la gravedad (clásica) es la teoría efectiva a baja energía de una teoría de alta energía que no es un teoría cuántica de campos. Para ello asume que la gravedad permite describir el comportamiento de los agujeros negros, al menos, en la región del horizonte de sucesos (para agujeros supermasivos en esta región la curvatura del espacio es muy pequeña). Sin embargo, la fórmula de Bekenstein-Hawking está en contradicción con el límite a baja energía de una teoría cuántica de campos renormalizable. Afirmar que la gravedad es no renormalizable es equivalente afirmar la validez o aplicabilidad de la fórmula de Bekenstein-Hawking.

En resumen, un artículo técnico pero fácil de leer que afirma que la graveda no es una teoría de campos efectiva que corresponda a una teoría cuántica de campos a alta energía si ambas tienen que estar “acopladas” mediante renormalización de parámetros.

Fragmento de “Cántico Cuántico,” de Ernesto Cardenal

Partículas que surgen de la nada y vuelven al olvido. Viajan del vacío al vacío. “La palabra realidad no es utilizable para las partículas.” En principio no hay el vacío absoluto. O un vacío absoluto en todos sentidos. El electrón puede no haber salido de ninguna parte pero dejó algo en la nada de donde salió, una especie de hueco en el vacío, o invisible burbuja de nada. “La posición de una partícula en el espacio es dependiente de su posición en el tiempo.” La gravedad es el espacio-tiempo curvado, enrevesado. Y al mismo tiempo el espacio-tiempo tiene estructura de espuma y se desvanece como la espuma sobre la arena. ¡Caótico mar donde aun la noción común de lugar desaparece! Y donde el mismo espacio puede cambiar y moverse (y hacerse espuma).

Abajo: Antigua imagen (popular) de la Vía Láctea (similar a Andrómeda).

Arriba: Nueva imagen (técnica) de la Vïa Láctea. (c) Science, 2008.

Imagen (técnica) de la Vía Láctea. (c) NASA, 2005.

Habrá que acostumbrarse a la nueva imagen de la Vía Láctea. Las dos primeras imágenes de arriba están sacadas del artículo de Phil Berardelli, “The Milky Way Gets a Facelift,” ScienceNOW Daily News, 03 June 2008 . Siempre habíamos pensado que nuestra Vïa Láctea era como Andrómeda, pero no es así. La imagen de más abajo de las 3, de la NASA, aparece en wikipedia desde hace ya varios años. Habrá que comparar estas dos últimas imágenes. Las nuevas observaciones presentadas por dos grupos de investigación en el 212th meeting of the American Astronomical Society in St. Louis, Missouri, revelan que la Vía Láctea tiene “muy debilitados” dos de sus cuatro brazos espirales. Más aún el brazo central es casi el doble de grande de lo que se pensaba. Como se muestra en la figura, obtenida por un grupo de investigación que ha utilizado el Telescopio Espacial Spitzer para estudiar la friolera de 110 millones de estrellas de nuestra galaxia. Los datos se han confirmado por otro equipo que ha utilizado uno de los telescopios terrestres más poderosos, el Very Long Baseline Array.

Lo dicho, si pensabas que conocías la foto de nuestra Galaxia, que obviamente es imposible de hacer porque nos encontramos dentro de ella. Lo siento. Es mucho más complicada de lo que pensabas.

En una entrada anterior ya hablamos de la historia del espín, esa mágica propiedad cuántica relativista de las partículas. Ahora, un poco más de historia de la mano de la revista internacional Nature, que presenta su serie de Milestones (grandes hitos), por primera vez, sobre un tema de física: el espín. Recomiendo acceder a dicho enlace. Presenta los descubrimientos más importantes sobre el espín desde 1896, incluyendo referencias bibliográficas clásicas.

Encontraréis tópicos tan importantes como el efecto Zeeman (1896), el experimento Stern-Gerlach (1922), el espín del electrón (1925), que explicó el efecto Zeeman, la ecuación de Dirac (1928), que explicó el espín del electrón, el isoespín (1932), que explica que el neutrón y el protón son la “misma” partícula, el desarrollo de las memorias magnéticas (1950s) o de la magnetoresistencia gigante (1988), responsable de los modernos discos duros.

Los hitos históricos de Nature, también incluyen enlaces a artículos de la propia revista. Entre los artículos seleccionados os recomiendo el review de Claude Chappert et al. “The emergence of spin electronics in data storage,” Nature Materials 6, 813-823, 2007, que explica muy bien la magnetoresistencia gigante y que nos introduce en el futuro de los dispositivos de almacenamiento nanomagnéticos.

Si antes del 31 de Agosto de 2008 os registráis (es gratuito, yo estoy registrado desde hace años, y de vez en cuando se tienen oportunidades como ésta) tendréis acceso a toda una serie de artículos publicados en revistas del grupo de Nature (Incluyendo Nature Physics, Nature Materials) relacionados con el espín (por ejemplo, los de física fundamental). Ánimo. Si sabes inglés, tienes un par de meses para leer interesantísimos artículos. Os recomiendo los de espintrónica.

El proyecto chebfun es una colección de algoritmos, y un sistema software basado en Matlab orientado a objetos, iniciado por Nick Trefethen y Zachary Battles en 2002, que extiende la potencia de los métodos numéricos al tratamiento “casi” simbólico de funciones continuas y continuas a trozos. Incluye algoritmos continuos para algoritmos como la descomposición QR o la SVD. Todo se basa en métodos espectrales o desarrollos de Fourier-Chebyshev. Es espectacular.

Algunos ejemplos:

¿Cuál es la integral de exp(-sqrt(x)) entre 0 y 10? >> x = chebfun(‘x’,[0 10]); sum(exp(-sqrt(x))) ans = 1.647628069579947

¿Cuál es el máximo local de la función sin(x)+sin(x2) en el mismo intervalo? >> max(sin(x)+sin(x.^2)) ans = 1.985446580874099

¿Cuántas raíces tiene la función de Bessel J0(x) entre 0 y 1000? >> length(roots(chebfun(@(x) besselj(0,x),[0 1000]))) ans = 318

Y muchas más cosas… En resumen “Métodos Numéricos con Funciones en lugar de con Números”. Gracias, Nick.

Interesante artículo el de MARCEL CODERCH, “Renacimiento nuclear: un parto con fórceps,” El Pais, lunes 2 de junio de 2008 . El gran problema de las centrales nucleares de nueva construcción es que son muy caras debido al alto precio del petróleo. Avalado por un informe del MIT realizado en 2003.

“El declive nuclear no fue consecuencia del accidente de Three Mile Island de 1979 ni del movimiento ecologista que desencadenó. La primera crisis del petróleo hirió de muerte el programa nuclear mundial. En EE UU los pedidos de centrales nucleares cayeron desde las 35 unidades en 1973 hasta las cero unidades en 1978, sin que hasta el día de hoy se haya cursado un solo pedido más… Se incrementó los costes de construcción y las tasas de interés, hundiendo la rentabilidad de estas inversiones. Ésta y no otra es la verdadera historia de la moratoria nuclear: el pago durante 25 años de unas inversiones fallidas que se hicieron siguiendo una planificación indicativa estatal promovida por las eléctricas pero de la que tuvimos que responder todos.

En los últimos cuatro años, los precios del petróleo y otras materias primas se han cuadruplicado y están induciendo un repunte de las tasas de interés, lo cual incide directamente en los costes de construcción de las nucleares. Nos enfrentamos quizás a una época de menor crecimiento, con un repunte inflacionista, y eso nos coloca en una situación análoga a la que provocó el primer declive nuclear… no parece el mejor escenario para un renacimiento nuclear que requeriría centenares de miles de millones de euros de nuevas inversiones durante décadas.”

O en resumen: “Si fuera cierto, como dicen sus defensores, que los problemas de la energía nuclear están resueltos o en vías de solución, y que no genera emisiones, entonces, ¿por qué no resolverlos de una vez y desplegarla a toda marcha, como en Francia? Y si no es cierto que están resueltos, y no vemos el modo de resolverlos, ¿por qué construir unas pocas centrales, que no serán suficientes para mitigar el cambio climático ni la crisis energética y, en cambio, sí incrementarían los riesgos y la dimensión de unos problemas que llevan décadas sin resolverse?”

El índice-h es un índice cientométrico introducido por el físico Hirsch en 2005 para medir los logros científicos de un individuo, grupo, departamento o institución. El índice ha generado considerable interés. Por ejemplo, en algunas pruebas de habilitación en España se ha exigido incluir dicho índice en los C.V. de los participantes. No sólo el artículo de Hirsch ha recibido muchas citas de autores que lo analizan (cientométricamente es bastante discutible si el volumen de publicaciones no es grande dado que el número de citas sigue una ley exponencial, además algunos investigadores han demostrado que el número medio de citas es un mejor indicador, estadísticamente hablando). También se han publicado muchísimos índices alternativos, como el índice g, el índice h(2), el índice a, el índice r, el índice ar, el cociente m, el índice m, etc. Acaba de publicarse un nuevo índice, el índice w en el artículo Qiang Wu, “The w-index: A significant improvement of the h-index,” ArXiv preprint, 30 May 2008 .

El índice-w es también una medida simple del impacto científico de la investigación. Se define como sigue. Un investigador tiene un índice-w si w de sus artículos tienen al menos 10w citas cada uno, y los demás artículos tienen menos de 10(w+1) citas. Por ejemplo, Stephen Hawking tiene un índice-w de 24, lo que significa que 24 de sus artículos han sido citados al menos 240 veces cada uno, y al mismo tiempo, no tiene 25 artículos citados al menos 250 veces cada uno. Edward Witten del Instituto de Estudios Avanzados de Princeton tiene un índice-w de 41, mucho mayor que Hawking. La idea de este índice es reflejar mejor que el índice-h el impacto de los artículos más representativos del investigador. Por supuesto, el Dr. Wu no ha pensado mucho y el índice-w podría llamarse el índice-10h. Aunque una regresión lineal muestra que el índice-w es aproximadamente 4 veces el índice-h.

El artículo es poco convincente pero presenta una ordenación de los 10 primeros físicos y químicos según el índice-h y el nuevo índice-w, decidiendo en autor que es “obvio” que su nuevo índice ordena mejor a los investigadores. Por ejemplo, Cardona mucho peor que Hawking.

Lo más “atrevido” del artículo es la clasificación de investigadores según su índice-w. Investigador junior que conoce los rudimentos de la materia (índice-w de 1 o 2), investigador senior que domina su materia (índice-w de 3 o 4), investigador con éxito (índice-w de 5), genios de su campo (índice-w de 10) y grandes genios (índice-w de 15 tras 20 años de publicaciones, o índice-w de 20 tras 30 años). ¡¡Radicalmente atrevido!!

Howard Georgi es uno de los grandes genios vivos de la Física de Partículas (según el ISI Web of Science 1945-2007 tiene un índice-h de ¡¡73!!, al menos 73 artículos con más de 73 citas). Ampliamente conocido es uno de los creadores de las Teorías de Gran Unificación (GUT), en concreto de los modelos más conocidos SU(5) y SO(10). Su artículo más citado es H. Georgi and S.L. Glashow, “UNITY OF ALL ELEMENTARY-PARTICLE FORCES,” PHYSICAL REVIEW LETTERS 32 (8): 438-441 1974, citado más de 2275 veces, etá en el TOP 25 de los artículos más citados de todos los tiempos, que propone SU(5) para unificar las fuerzas fuertes, débiles y electromagnéticas. Su segundo artículo más citado estudia las masas de los hadrones (bariones y mesones) en el contexto de la teoría de quarks (la cromodinámica cuántica), De Rújula, Georgi, Glashow, “HADRON MASSES IN A GAUGE THEORY,” PHYSICAL REVIEW D 12 (1): 147-162 1975. El artículo empieza de forma muy curiosa “Once upon a time, there was a controversy in particles physics. There were some physicists who denied the existence of structures more elementary than hadrons.” Así como uno de los introductores del Modelo Minimal Supersimétrico, la versión supersimétrica del Modelo Estándar, en su tercer artículo más citado, Dimopoulos, Georgi, “SOFTLY BROKEN SUPERSYMMETRY AND SU(5),” NUCLEAR PHYSICS B 193 (1): 150-162 1981 [free version].

Los artículos de Howard Georgi siguen siendo algo frikis, pero muy interesantes y ampliamente citados. Entre los últimos destaca su propuesta de estudio de la componente “Sin Partículas” de la Fïsica de Partículas: “Unparticle Physics,” Physical Review Letters 98, 221601, 2007 [free preprint] y “Another Odd Thing About Unparticle Physics,” Physics Letters B, 650(4): 275-278, 5 July 2007 [free preprint]. La idea es muy simple, aprovechar la invarianza de escala de las partículas sin masa y montar una teoría cuántica de campos con invarianza de escala (teorías de Banks-Zaks de 1982) a la que no se puede aplicar el concepto de partícula.

Las partículas en una teoría cuántica de campos están caracterizadas por valores de energía, momento y masa (en reposo) bien definidas. Si multiplicamos estos valores por un factor de escala el resultado no corresponde a dicha partícula. En concreto, la masa en reposo siempre es la misma independientemente de la energía y el momento de la partícula. Pero, qué pasa con las partículas con masa en reposo nula (como los fotones), la teoría de estas partículas permite la invarianza de escala. Las “no partículas” (unparticles) corresponden a la posible existencia de “estados” sin masa nula que son invariantes ante transformaciones de escala (aplicados a energía, momento y masa). Hasta el momento “nada” prohibe su posible existencia aunque todavía no han sido observadas experimentalmente. Quizás el LHC (Large Hadron Collider) la encuentre. Por ello, un gran número de físicos teóricos se han puesto las pilas y están “como locos” estudiandos sus propiedades y cómo podrían ser detectadas.

Las “no partículas” interactúan débilmente con el resto del Modelo Estándar, apareciendo en los experimentos como una energía y momentos “perdidos” que no pueden ser detectados experimentalmente. Ciertas distribuciones de energía “perdida” son una señal (signatura) clara de este sector. ¿Influye sobre el electrón? Sólo a energías de decenas a cientos de TeV (el LHC funcionará con un pico de menos de 10 TeV), luego quizás sea indetectable. El sector de “no partículas” permite explicar muchas cosas de forma novedosa como la violación de la simetría CP, violación de la simetría de sabor para leptones, explicación de la anomalía NuTeV para el ángulo de Weinberg en el Fermilab, etc.

Podría estar hecha la Materia Oscura del Universo de “no partículas”. El artículo de Tatsuru Kikuchi, Nobuchika Okada, “Unparticle Dark Matter,” ArXiv preprint, 2007, así lo propone. Las “no partículas” con paridad pueden ser un candidato para materia oscura fría gracias a su acoplamiento con el sector de Higgs del Modelo Estándar. Por ejemplo, si la masa del bosón de Higgs está en el rango (bastante razonable) 114.4 GeV < m_h < 250 GeV, la abundancia de un fondo cósmico de “no partículas” generadas en el Big Bang con masas en el rango 50 GeV < m_U < 80 GeV es consistente con la densidad y propiedades observadas de la materia oscura fría. En este escenario, un bosón de Higgs con una masa m_h < 160 GeV decae de forma dominante en un par de “no partículas”, siendo dicha caída detectable en el futuro LHC.

¿Podrían ser las “no partículas” un tipo de partículas pero con masa arbitraria? La propuesta de H. Nikolic, “Unparticle as a particle with arbitrary mass,” ArXiv preprint, 2008, que implementa una segunda cuantización del campo de “no partículas”, con operadores de creación y aniquilación de partículas aplicados a las “no partículas” y muestra que las “no partículas” se pueden manifestar como partículas ordinarias con una masa definida pero arbitraria (masa en reposo no constante).

La importancia y repercusión de un artículo se mide por su número de citas. En el último año (15 meses desde el envíó del preprint) el artículo “Unparticle Physics” ha sido citado la friolera de ¡¡167 veces!! Si eres físico teórico, ¿por qué no escribes un paper para Physics Reports sobre este interesante tópico? Ánimo.

Para saber más: “Interactions of Unparticles with Standard Model Particles

Muy interesante: “Comments on Unparticles

Las programadoras del ENIAC primero utilizaban paneles de cables.

Nick (Nicholas Constantine) Metropolis (nacido el 11 de junio de 1915) trabajó con Edward Teller y con J. Robert Oppenheimer en el proyecto Manhattan en Los Alamos durante la Segunda Gran Guerra. Tras ella, en 1948 lideró el grupo de Los Alamos que desarrolló y construyó el Maniac, uno de los primeros ordenadores electrónicos digitales. Metropolis desarrolló, junto a Teller, John von Neumann, Stanislaw Ulam, y Robert Richtmyer, los llamados métodos de Montecarlo (in inglés Monte Carlo, como les llamó el propio Metropolis). Es sorprendente, pero mucha gente asocia a Metropolis con las técnicas de muestreo basadas en la importancia, el llamado algoritmo de Metropolis, muy utilizadas en simulación de Montecarlo, olvidando su importante papel en el desarrollo de uno de los algoritmos más importantes en toda la Historia de la Informática.

El origen de métodos tan importantes como el método de Montecarlo siempre se puede trazar en el pasado muy lejos y siempre hasta llegar a los más grandes genios. Por ejemplo, Enrico Fermi, quien siempre estaba calculando algo, usó técnicas de muestreo estadístico en problemas de difusión de neutrones al menos en 1934, tras el descubrimiento en 1933 por Frederic Joliot e Irene Curie (la hija, también Nobel) de la radioactividad inducida en elementos ligeros mediante el bombardeo con partículas alfa (núcleos de Helio). Recuerda que Chadwick descubrió el neutrón un año antes. La idea de Fermi fue utilizar neutrones en lugar de partículas alfa. Utilizó métodos de Montecarlo para realizar sus cálculos. Nunca lo publicó. Se conoce la historia porque se la contó a Emilio Segré.

Las programadoras del ENIAC más tarde utilizaban paneles control (idea de Nick).

En 1948, Nick visitó el ENIAC donde, gracias a una sugerencia de von Neumann, implementó por primera vez cálculos de Montecarlo computerizados. Contratado por la Universidad de Chicago, desarrolló el computador electrónico de Los Alamos llamado MANIAC (Mathematical and Numerical Integrator and Computer) que utilizaba la arquitectura de programa almacenado de von Neumann. Lo más maravilloso de tener uno de los primeros ordenadores a principios de los 1950s es que prácticamente cualquier que se hacía con él era pionera y muy importante. El computador abría un amplio abanico de posibilidades de investigación científica hasta ese momento inalcanzables. En el MANIAC se realizaron las primeras simulaciones de osciladores no lineales acoplados (problema de Fermi-Pasta-Ulam, programado por la señorita Tsingou), idea de Fermi en 1953 acabó como informe técnico sin publicar por su fallecimiento. Pero también se desarrollaron trabajos tan importantes como el análisis del código genético (Gamow, Metropolis; 1954), el muestreo basado en importancia (Metropolis, Teller; 1953), física computacional de fluidos en 2D (Metropolis, von Neumann; 1954), y muchos otros más. Casi cada artículo abría un nuevo campo de conocimiento.

MANIAC II sustituyó a MANIAC I en Los Alamos en 1956, que incluía un aritmética en punto flotante y era mucho más poderoso. MANIAC III, con circuitos de estado sólido, se desarrolló en la Universidad de Chicago. Los MANIAC funcionaron hasta 1977.