B.F.L. Ward es un físico teórico afroamericano que ha desarrollado una teoría consistente para la gravedad cuántica, llamada teoría “resumada” de la gravedad cuántica (ya que suma a todos los órdenes, “resuma”, todas las correcciones de alto orden o radiactivas). Presentó su teoría en B.F.L. Ward, “Quantum Corrections to Newton’s Law,” Mod. Phys. Lett. A17 (2002) 2371-2382. Su teoría está acoplada al Modelo Estándar a través del bosón de Higgs. La gran ventaja de su teoría es que todas las correcciones de tipo bucle al campo del gravitón son finitas, a todos los órdenes (al contrario de la teoría de la gravedad cuántica “estándar” que en la que divergen en el límite ultravioleta).

Una de las consecuencias más interesantes de su teoría es que las partículas elementales masivas no son microagujeros negros, como ilustró en B.F.L. Ward, “Are Massive Elementary Particles Black Holes?,” Mod. Phys. Lett. A19 (2004) 143-150 y en B.F.L. Ward, “Massive Elementary Particles and Black Hole Physics in Resummed Quantum Gravity,” Int. J. Mod. Phys. A20 (2005) 3128-3131. ¿Cómo dice? La teoría general de la relatividad de Einstein es nuestra mejor teoría “clásica” para la gravedad y su validez experimental ha sido comprobada en múltiples ocasiones. Sin embargo, si aplicamos dicha teoría “ad hoc” a cualquier partícula elemental “puntual” con masa en reposo no nula, resulta que su masa en reposo se encuentra completamente dentro de su radio de Schwarzschild, es decir, es un agujero negro “clásico”. Este radio es igual a rs=2(m/MPl)(1/MPl), donde m es la masa de la partícula (la más pesada conocida tiene unos cientos de GeV) y MPl es la masa de Planck, mayor de 1019 GeV. El radio rs es extremadamente pequeño, pero finito, lo que indica que una partícula “puntual” debe ser un agujero negro y si Hawking tiene razón debería radiar hasta evaporarse (mediante radiación de Bekenstein-Hawking). ¡Pero las partículas elementales no se evaporan! En la teoría de Ward, las partículas elementales no son microagujeros negros (no tienen asociado un horizonte de sucesos) gracias a los efectos gravitatorios cuánticos, gracias a su teoría.

Es curioso que algo que parece “obvio,” hay que demostrarlo y que la demostración requiere una nueva teoría cuántica de la gravedad. ¿Por qué muchos afirman que todavía no se tiene una teoría cuántica de la gravedad? La razón es que la teoría de Ward no ha sido demostrada experimentalmente. Por ejemplo, introduce en el potencial del campo gravitatorio de Newton una corrección de tipo exponencial, pero es muy pequeña para ser detectable con los experimentos actuales.

Para los interesados en más detalles de esta teoría es interesante leer los breves artículos de revisión B.F.L. Ward, “Quantum Corrections to Newton’s Law in Resummed Quantum Gravity,” Int. J. Mod. Phys. A20 (2005) 3502-3506, y B.F.L. Ward, “Resummed Quantum Gravity,” ArXiv preprint, 2006.

¿Qué pasa con un agujero negro astrofísico en las fases finales de su evaporación? ¿Aparece una singularidad desnuda? Según la teoría de Ward se alcanza una masa límite del orden de la masa de Planck y se obtiene una partícula “reliquia” (Planck renmant) que sería detectable en los rayos cósmicos. ¿Se han observado partículas con una masa/energía del orden de la escala de Planck en los rayos cósmicos? Hay cierta evidencia, todavía sin confirmar, de la existencia de rayos cósmicos ultraenergéticos. En concreto, (1) 57 eventos en los datos disponibles por AGASA hasta el año 2000 y 34 eventos en los de Yakutsk hasta el año 2005 con energía mayor de 4×1019 eV; y (2) algunos eventos aislados de los datos de SUGAR y de HiRes con energía mayor de 1×1019 eV, según M. Kachelrie and D.V. Semikoz, “Clustering of ultra-high energy cosmic ray arrival directions on medium scales,” Astroparticle Physics, 26:10-15 (2006). Por ahora, la interpretación de estos datos es difícil y sujeta a controversia, A. Cuoco, G. Miele, and P.D. Serpico, “Astrophysical interpretation of the medium scale clustering in the ultrahigh energy sky,” Physics Letters B, 660:307-314 (2008 ). Se necesitan más datos, en especial del mayor observatorio de rayos cósmicos del mundo, situado en Argentina, el Pierre Auger Observatory. “El Observatorio Auger ha sido diseñado para la detección y el estudio, con una calidad y precisión sin precedentes, de los rayos cósmicos de energías cercanas y por encima del límite de GZK, o lo que es lo mismo, con energías de más de 1019 eV. Dentro de los límites del conocimiento actual, no hay ninguna explicación satisfactoria de los mecanismos de producción en el universo de partículas a tales energías macroscópicas. El proyecto Auger es, por tanto, el único medio que la comunidad científica puede proponer con el objeto de resolver un enigma astrofísico que dura ya más de 30 años.”

Los primeros datos del observatorio Auger, todavía en construcción, parecen indicar que el origen de los rayos cósmicos más energéticos se encuentra en galaxias cercanas que poseen núcleos activos (AGN) en lugar de distribuidos de forma uniforme por el cielo, The Pierre Auger Collaboration, “Correlation of the Highest-Energy Cosmic Rays with Nearby Extragalactic Objects,” Science, 318, 938 – 943, November 9, 2007 . En sus primeros 3.7 años, han demostrado que las direccions de llegada de los 80 rayos cósmicos con energías por encima de 6×1019 eV que han detectado están correlacionadas con la posición de núcleos activos de galaxias en nuestra cercanía (unos 75 megaparsecs). La hipótesis de una distribución isótropa es rechazada con una intervalo de confianza del 99%. Lo que se traduce en un claro revés a la teoría de Ward. ¡Qué le vamos a hacer!

http://mx.youtube.com/watch?v=GIM2wduKk3A

A veces, reeler artículos clásicos de genios de hace muchos años le ofrece a uno nuevas visiones sobre la opinión y el trabajo de dichos genios. Comentarios que hoy serían “polícitamente incorrectos” aparecen habitualmente en dichos trabajos. Un ejemplo, “Quantum Theory of Gravitation,” Richard P. Feynman, Acta Physica Polonica, 24:697-722, 1963 (citado más de 433 veces en el Thomson/Reuters ISI Web of Science).

Leemos literalmente “There’s certain irrationality to any work in (quantum) gravitation (…) shown in the strange gadgets of Prof. Weber, in the absurd creations of Prof. Wheeler and other things. But since I am among equally irrational men I won’t be criticized I hope.” [Hay muchas cosas irracionales en cualquier teoría de la gravitación (cuántica) como los extraños artefactos de Weber, o las absurdas creaciones de Wheeler, entre otras cosas. Pero, como yo soy tan irracional como ellos, espero que no seré criticado] (por mi trabajo en este campo).

¿Qué pretende calcular Feyman en este artículo suyo? La corrección cuántica de los niveles atómicos (efecto tipo Lamb) del átomo de Hidrógeno debida a efectos gravitatorios. ¿Por qué es absurdo o irracional calcularla? Porque el resultado es extremadamente pequeño, del orden de 10^(-120), imposible de determinar experimentalmente.

Feynman lo tiene claro “I am investigating this subject despite the real difficulty that there are no experiments. Therefore there is no real challenge to compute true, physical situations.” [Investigo en este campo aunque sé que la gran dificultad es la ausencia de experimentos. Por tanto, el cálculo no tiene utilidad en situaciones físicas “de verdad”]. Palabras que deberían afirmar muchos físicos que trabajan hoy en teoría de cuerdas.

Feynman “linealiza” las ecuaciones clásicas de Einstein de la gravedad y construye una teoría “cuántica” perturbativa para la gravedad (desarrolla una teoría cuántica de campos para el gravitón suponiendo que es una fluctuación pequeña sobre una solución clásica de las ecuaciones de la gravedad de Einstein). En el orden más bajo, el clásico, en el que sólo se intercambia un único gravitón, no hay ningún problema. “Everything is all right, there is no difficulties. I emphasize that this contains all the classical cases (…) This is not meant as a grand discovery, because after all, you’ve been worrying about all the difficulties that I say don’t exist.”

Sin embargo, todo se va al traste cuando consideramos correcciones de mayor orden, porque el gravitón gravita, lo que complica en extremo el desarrollo perturbativo. Feynman trata de calcular los diagramas del siguiente orden sin éxito. Recurre a una analogía, realizar un cálculo similar para una teoría de Yang-Mills pura (“everything has its analogue precisely, so it is a very good example to work with“). Este cálculo le cuesta un día (“the Yang-Mills case took me about a day“) sin embargo, en el caso gravitatorio no es capaz de realizarlo (“in the case of gravitation I tried again and again and was never able to do it“). ¿Cómo realizar el cálculo? Recurre a John Matthews y le pide que use un ordenador para desarrollar el cálculo. “I did the integrals myself later, but the algebra of the thing was done on a machine (…) I couldn’t have done it by hand.” Quizás la primera aplicación de los ordenadores y el álgebra simbólica al cálculo de diagramas de Feynman, como él mismo observa “I think it’s historically interesting that it’s the first problem in algebra that I know of that was done on a machine that has not beend one by hand.” El resultado es difícil de entender, parece que “falta algo”. ¿Qué pasa en las correcciones de aún mayor orden? Son incluso más difíciles de entender. ¿Es la teoría renormalizable? Parece que no. La teoría de perturbaciones (el uso de diagramas de Feynman) no funciona para la gravedad cuántica.

Feynman lo confiesa, confiesa su incapacidad. “It’s surprising, I can’t understand it (…) unfortunately, although I could retire from the field and leave you experts who are used to working in gravitation to worry about this matter, I can’t retire on the claim (…) that the thing is now really irrational, if it was not irrational before.”

Pero Feynman es un genio tozudo y testarudo, como una mula: “I’m stuck to have to continue this investigation, and of course you all appreciate that this is the secret reason for doing any work, no matter how absurd and irrational and academic it looks.”

John Bardeen entró en 1923 en una universidad americana de “segunda” la University of Wisconsin, en Madison, para estudiar ingeniería. El hijo de uno de sus profesores de Matemáticas, John Van Vleck, nueve años mayor que él, llegó a la University of Wisconsin a finales de 1928 para impartir un curso anual sobre Física Cuántica, uno de los primeros cursos de este tipo en EEUU, que introdujo a Bardeen a la Mecánica Cuántica que se acababa de desarrollar en Europa entre 1925 y 1926. Van Vleck era experto en la “antigua” mecánica cuántica y había escrito en 1926 un libro de texto sobre ella, “Quantum Principles and Line Spectra.” Que Bardeen también estudió. Bardeen destacó como alumno y Van Vleck le recomendó que considerara seriamente una carrera en Física. Él pensabe que “las únicas salidas de Física y Matemáticas eran dar clase en la Universidad y él no quería acabar así.” Ya graduado decidió estudiar alemán durante un año y aprovechó para estudiar los cursos de doctorado en Física. Entre estos cursos, recibió uno del holandés Peter Debye y otro del británico Paul Dirac, de sólo 27 años. Dirac cubrió en su carso la mayor parte de su futuro libro de texto “The Principles of Quantum Mechanics,” todo un clásico hoy en día. Por Madison también pasaron otros genios de la nueva mecánica cuántica, como Werner Heisenberg y Arnold Sommerfeld.

Bardeen acabó los cursos de su carrera en 1928, con 20 años, y defendió su proyecto fin de carrera (Master Thesis) en 1929. Solicitó una beca para visitar Europa, en concreto para estudiar Física en el Trinity College de Cambridge, UK. Sin embargo, a pesar de sus buenas recomendaciones, no se la concedieron. Se tuvo que quedar en Madison como ayudante de investigación de Edward Bennett que trabajaba en los efectos de la difreacción en el diseño de antenas. La depresión de 1929 hizo difícil que Bardeen encontrara trabajo, recayendo finalmente en 1930 en la “Gulf Oil Company” de Pittsburgh, que le ofreció un puesto de geofísico, para estudiar prospecciones petrolíferas.

La investigación y el mundo académico “tiran mucho.” Bardeen decidió retornar, abandondando un buen puesto de trabajo en Gulf. Solicitó ser admitido en Princeton para desarrollar un Doctorado en Matemáticas, en 1933, cuando ya tenía 25 años. La cruzada de Hitler contra los científicos judíos hizo que muchos emigrasen a EEUU y algunos de los mejores acabarían en Princeton, atraídos por el nuevo Institute for Advanced Study (fundado por un propietario de una línea de supermercados que no sufrió la crisis del 1929, “todo el mundo tiene que comer,” y quiso “retornar” a sus conciudadanos parte de sus beneficios). Al IAS llegaron físicos de la talla de Albert Einstein, Hermann Weyl, Eugene Wigner o John von Neumann. En 1933, Princeton era uno de los mejores lugares de EEUU para estudiar Física y Matemáticas, todo un paraíso.

Walter Brattain era uno de los compañeros de clase de Bardeen en Princeton y rápidamente “hicieron buenas migas”. Walter simultaneaba sus estudios con un trabajo como físico en los Bell Telephone Laboratories, la rama de investigación y desarrollo de la American Telephone and Telegraph Corporation (AT&T). Era de los pocos físicos de los Bell Labs que pensaba que la mecánica cuántica sería muy importante a la hora de resolver los problemas de comunicaciones de la AT&T. Logró que la propia compañía le pagara los estudios tras asistir a una conferencia de Arnold Sommerfeld, en Ann Arbor, en la Escuela de Verano de Física Teórica de Michigan en 1931, sobre las nuevas teorías “del electrón” en los metales.

Eugene Wigner estaba interesado en aplicar la nueva mecánica cuántica al estudio de los sólidos. Bardeen decidió hacer su tesis doctoral bajo la dirección de Wigner (sólo 6 años mayor que él). Wigner le sugirió a Bardeen que calculara la función de trabajo de un metal, la energía necesaria para extraer un electrón de su superficie. Una tesis doctoral en Física Teórica del Estado Sólido, a principios de los 1930s cuando sólo en 2 lugares en el mundo se ofrecían doctorados en este tópico: uno en el MIT, en Massachusetts, bajo la dirección de John Slater, y otro en la University of Bristol, Gran Bretaña, bajo la dirección de John E. Lennard-Jones, Nevill Mott, y Harry Jones. En su tesis doctoral Bardeen utilizó la aproximación de Hartree-Fock para la función de onda del electrón en un metal con objeto de resolver el problema planteado por Wigner. La defendió en enero de 1936 (su padre falleció el año anterior lo que le retrasó la defensa de la tesis). Gracias a su tesis logró una plaza de investigador en Harvard, Cambdrige, el mejor lugar para realizar un postdoc en EEUU en la época, como “junior fellow”.

En Harvard, Bardeen trabajó entre otros temas de la física del estado sólido en la teoría de la superconductividad. En 1933, Meissner y Ochsenfeld descubrieron que los superconductors repelen campos magnéticos, el “efecto Meissner,” lo que indicaba que la transición de fase entre estado normal y superconductor de un metal era reversible. Los hermanos London, Fritz y Heinz, desarrollaron una teoría fenomenológica de la superconductividad para explicar dicho efecto. Bardeen trató de extender y generalizar esta teoría pero sin éxito. Entre 1935-36, Bardeen se hizo amigo de William Shockley, entonces estudiante de doctorado de Slater. En marzo de 1936, Shockley recibió una oferta de trabajo envidiable para trabajar en los Bell Telephone Laboratories que no pudo rechazar. Para sorpresa de sus compañeros, Bardeen abandonó Harvard en mayo de 1938 para aceptar una plaza de Assistant Professor en la University of Minnesota, Minneapolis, invitado por John Tate, editor principal de la revista Physical Review, quien fue director de la tesis doctoral de Walter Brattain, quien deseaba un departamento “fuerte” en física del estado sólido. Bardeen aprovechó para casarse.

Con la Gran Guerra, se vio obligado a abandonar la Universidad y dedicarse a servir a la patria en investigación militar (acabó recibiendo una Medalla al Mérito Civil). Tras la guerra, la Física del Estado Sólido era reconocida como una de las grandes ramas de la Física y Kelly, los Bell Labs, quien atrajo a Shockley, quería formar un grupo “fuerte” en esta materia. Contaba también con Walter Brattain entre otros, y estaba intereado en Bardeen, a quien ofreció mejor salario y sin obligaciones docentes. Bardeen no pudo rechazar la oferta y el 15 de octubre de 1945 ya era miembro de los Bell Labs para trabajar en física de semiconductores, junto a Brattain y Shockley.

El 22 de octubre de 1945, Shockley le pidió a Bardeen que estudiara un diseño que había desarrollado 6 meses antes para un amplificador de “efecto de campo” de silicio. Sin embargo, el diseño en la práctica no funcionaba. Shockley no sabía el porqué, ya que las teorías de semiconductores en boga como las de Mott y Schottky predecían lo contrario. Bardeen sabía que la teoría debía estar mal. Faltaba algo. Aplicó algunas de las técnicas que desarrolló en su tesis doctoral para el estudio de electrones en superficies y mejoró la teoría, pero no logró resolver el problema completamente. En verano de 1947, Shockley y Bardeen estuvieron de gira por Europa. Tras retornar, Shockley decidió reorientar su investigación a problemas de dislocaciones en semiconductores.

Noviembre de 1947 fue el mes “mágico” para Bardeen: Brattain había encontrado que gotas de agua en la superficie del amplificador de Shockley alteraban mucho su comportamiento eléctrico. Bardeen sugirió que los iones móviles en los electrolitos (o las gotas de agua) podían crear un campo eléctrico suficientemente grande como para superar los estados electrónicos superficiales que reducían el efecto de amplificación. Depositando agua o un electrolito se lograba formar una capa de carga positiva en una superficie y una negativa en la otra, con lo que habían logrado fabricar un amplificador de efecto de campo. El 20 de noviembre, escribieron la solicitud de patente. Por supuesto, quedaban muchos detalles por concretar. Shockley no intervo en el descubrimiento, estaba “en lo suyo”. Bardeen, teórico, trabajó mano a mano con Brattain (físico) y con Gibney (químico) en la parte experimental. Aunque la propuesta de Bardeen del 21 de noviembre todavía no presentaba el efecto amplificador deseado, contenía los elementos fundamentales del primer transistor.

Las mejoras al primer diseño de Bardeen fueron desarrolladas por él y Brattain, fundamentalmente. Los avances en el diseño fueron muy rápidos. Día a día el diseño iba mejorando con nuevas ideas. Uno de los cambios más importantes, en el que intervino Shockley, fue sustituir el silicio por germanio, sugerencia conjunta de Brattain y Shockley durante el almuerzo el 8 de diciembre. Gracias a ello lograron obtener el efecto de amplificación. El 10 de diciembre, habían logrado una ganancia en potencia de 6000 con un transistor muy similar a los actuales MOSFET. El primer transistor, que vemos en la foto, es del 16 de diciembre de 1947.

Shockley, en las navidades de 1947, se dió cuenta de la importancia del descubrimiento de Brattain y Bardeen, y se puso a trabajar duro y el lunes, 28 de diciembre, había diseñado el primer transistor bipolar. Citó por separado a Brattain y Bardeen para “que quedara clara” su participación en el descubrimiento. Kelly quería que todo se mantuviera en el más absoluto secreto (se rumoreaba que había un descubrimiento similar en Europa). El 30 de junio de 1948 se hizo público el dispositivo que ya tenía nombre: transistor. A partir de ese momento, Shockley, Brattain y Bardeen se convirtieron en “estrellas”, viajando por todo el país dando múltiples conferencias. Shockley estaba encantado en su papel de “estrella”. Brattain y, sobre todo, Bardeen estaban “hartos”. En 1950, Bardeen ya no quería trabajar en los mismos problemas que Shockley y empezó a darle vueltas al problema que le quitó el sueño antes de la Gran Guerra, la superconductividad. Pero esa es otra historia.

John Bardeen tiene el honor de ser el único científico que ha recibido 2 premios Nobel en Física por el descubrimiento del transistor y por su teoría de la superconductividad. Frederick Sanger ganó el Premio Nobel de Química en dos ocasiones en 1958 y 1980, Marie Curie ganó el de Física en 1903 y el de Química en 1911, y Linus Carl Pauling el de Química en 1954 y el Premio Nobel de la Paz en 1962. Merece la pena recordarlo este año que se cumplen 100 años de su nacimiento. La entrada de la wiki es breve pero efectiva. Su biografía más famosa es “TRUE GENIUS. THE LIFE AND SCIENCE OF JOHN BARDEEN. The Only Winner of Two Nobel Prizes in Physics,” Lillian Hoddeson y Vicki Daitch, Joseph Henry Press, Washington, 2002 .

John Bardeen bajaba despacio por el corredor del edificio de física, parecía perdido en sus pensamientos, era el 1 de noviembre de 1956, llevaba 5 años siendo catedrático de física en la University of Illinois, trataba de digerir la noticia que había recibido esa misma mañana: él y dos de sus colegas, William Shockley y Walter Brattain, habían ganado el Premio Nobel de Física por la invención del transistor en diciembre de 1947, cuando trabajaba en los Bell Telephone Laboratories.

La compañía telefónica Bell quería reemplazar los amplificadores basados en tubos de válvulas de vacío por algún nuevo dispositivo, más barato y con mayor proyección tecnológica. El líder del grupo de semiconductores, Shockley, tras la llegada de Bardeen a finales de 1945, le encargó que estudiara el porqué cierto diseño de amplificador basado en silicio no funcionaba. Schockley había diseñado dicho dispositivo varios meses antes utilizando las mejores teorías mecánico-cuánticas disponibles y según sus cálculos el dispositivo tenía que amplificar señales, sin embargo, no lo hacía. Bardeen encontró una explicación: los electrones eran confinados en las superficies de los materiales que formaban el dispositivo. Bardeen y Brattain estuvieron 2 años trabajando intensamente en el estudio de estos estados electrónicos superficiales con objeto de obtener su invención, el transistor. Shockely no intervino como tal en este invento. Sin embargo, supo aprovecharse de su situación de líder del grupo. Echó a Bardeen y Brattain de su grupo y se encargó de liderar el desarrollo de los transistores de segunda generación. Desde entonces, muchos creen que Shockley fue inventor del transistor, sin embargo, se limitó a ser “jefe”.

Al modesto Bardeen nunca le importó que Shockley asumiera el papel de “estrella de Hollywood” en el invento del transistor. De hecho, Bardeen nunca pensó que el transistor fuera un invento lo suficientemente importante como para recibir el Premio Nobel de Física. El nunca pensó que su invención fuera un avance científico de primera magnitud. De hecho, en 1956, el transistor todavía no había revolucionado las tecnologías de la información y las comunicaciones.

En 1956, la “cabeza” de Bardeen le daba vuelta a otros asuntos “más importantes”. Junto a un alumno postdoc, Leon Cooper, y a un alumno de doctorado, J. Robert Schrieffer, estaba involucrado en el desarrollo de una teoría para la superconductividad. Según Bardeen, su trabajo en esta teoría sí merecía un Premio Nobel en Física, ya que la superconductividad era el problema de la física del estado sólido más importante desde la década de los 1920. Bardeen llevaba trabajando en este problema desde finales de los 1930s. Unos meses después de que Bardeen regresara desde Estocolmo con su Nobel bajo el brazo, Bardeen, Cooper, y Schrieffer resolvieron el problema de la superconductividad, inventando la teoría llamada BCS en su honor. La teoría de Bardeen-Cooper-Schrieffer (BCS) de la superconductividad ha sido uno de los momentos cumbre de la física del siglo XX. Conceptos tan importantes como la ruptura espontánea de la simetría y la generación de masa asociada a ella (la razón por la que se busca el bosón de Higgs en el LHC del CERN) parten de la teoría BCS de la superconductividad.

La teoría BCS fue todo un triunfo para la física teórica, poder explicar la superconductividad descubierta en 1911, cuando los mejores teóricos del mundo, entre ellos Richard Feynman, Albert Einstein, Niels Bohr, Werner Heisenberg, Wolfgang Pauli, y Lev Landau, habían tratado de lograrlo infructuosamente. Felix Bloch llegó a decir “toda teoría de la superconductividad puede ser refutada,” ilustrando la gran frustación de todos los teóricos que atacaron dicho problema.

Cuando el comité Nobel premió en 1972 a Bardeen, Cooper, and Schrieffer con el Nobel de Física, era la primera vez que un físico recibía un segundo premio Nobel en el mismo campo. Bardeen cambió la física moderna tanto como Einstein, con dos invecciones de primera magnitud, y sin embargo, como tituló el periódico Chicago Tribune: “Para los científicos Bardeen es un Einstein. Para el público en general es un … ¿John qué?”.

¿Por qué el padre de la Era de la Información es un desconocido para el gran público? Quizás la culpa la tiene el propio Bardeen, el ejemplo perfecto del “genio modesto”.

La revista Microwave Journal celebra este año sus 50 años con una serie de artículos sobre la historia de su industria, las tecnologías de microondas, fundamentales, por ejemplo, para la comunicación mediante teléfonos móviles (celulares). Me ha gustado el artículo de James C. Rautio, “Twenty Three Years: The Acceptance of Maxwell’s Theory,” Microwave Journal, Vol. 51, No. 7, July 2008 .

En 1865, cuando la Guerra Civil Americana estaba acabando, Maxwell publicó “A Dynamical Theory of the Electromagnetic Field” en las Transactions de la Royal Society , Vol. CLV, un artículo que había presentado oralmente en diciembre de 1864. En su artículo afirmaba que “la luz y el magnetismo son resultado de la misma sustancia, y que la luz es una perturbación electromagnética que se propaga de acuerda con las leyes del electromagnetismo.” Obtuvo este resultado tras comparar varios valores que medían la velocidad de la luz, en concreto 314.858.000 m/s (M. Fizeau), 298.000.000 m/s (M. Foucault) y 308.000.000 m/s (por aberración estelar), con el resultado de sus cálculos teóricos.

Maxwell resolvió uno de los problemas más difíciles de la física, la naturaleza de la luz. Pero su descubrimiento necesitó 23 años para ser aceptado. ¿Por qué? Uno de los problemas de la teoría de Maxwell es que no ofrecía ningún modelo mecánico del “éter luminífero,” el medio en el que “supuestamente” se propagaban las ondas de luz, que eran transversales, sin vibración longitudinal. ¿Qué medio mecánico podía sostener este tipo de vibraciones? ¿Qué es lo que “realmente” modelaban las 20 ecuaciones diferenciales de Maxwell? Recuerda que la notación actual (4 ecuaciones vectoriales) es muy posterior a Maxwell, quien escribió sus ecuaciones componente a componente y en su versión “breve” basada en los cuaterniones de Hamilton.

Un físico actual encontraría dificultades a la hora de reconocer las 20 ecuaciones de Maxwell para el electromagnetismo. Para Maxwell, la magnitud fundamental era el “momento electromagnético” (cuya derivada en tiempo genera una fuerza) ya que trataba de formalizar el concepto de “estado electrotónico” de Faraday, por lo que introdujo el potencial vector magnético, al que bautizó con la letra A, como magnitud fundamental, siendo el campo magnético, letra B, una magnitud “secundaria”.

Maxwell murió en 1879 siendo famoso por sus contribuciones en termodinámica estadística (teoría molecular en la época) pero con muy poco reconocimiento por su teoría electromagnético. De hecho, él mismo no supo “vender” la gran importancia de dicha teoría (cuyas ecuaciones matemáticas eran extremadamente difíciles para la época). Tampoco dejó una escuela, alumnos o colegas, que continuaran su trabajo en esta materia. ¿Quién continuó el desarrollo del electromagnetismo? 2 días después de la muerte de Maxwell, la Royal Society envió a George Francis FitzGerald (del Trinity College de Dublín) la revisión por el propio Maxwell de un artículo suyo sobre el electromagnetismo.

Maxwell publicó una monografía científica sobre el electromagnetismo en 1873. En dicha monografía no trataba sobre la reflección o refracción de la luz. FitzGerald se estudió dicho libro con mucho detalle, encontrando analogías con un modelo para el éter desarrollado por MacCullagh (también del Trinity College de Dublín). Gracias a esta analogía, FitzGerald fue capaz de añadir a la teoría de Maxwell la teoría de la reflección y de la refracción de la luz. El problema del éter de MacCullagh (descubierto por Stokes) era que no conservaba el momento angular, con lo que los resultados de FitzGerald no fueron valorados en su justa medida.

En 1879, Oliver Lodge (del University College en Liverpool) amigo de FitzGerald y “amante” de la teoría de Maxwell, desarrolló un modelo mecánico de cómo se podría generar una onda electromagnética de luz: aplicando un voltaje a través de un conmutador que oscilara muy rápidamente. FitzGerald, tras un gran esfuerzo, encontró una solución de las ecuaciones de Maxwell para una corriente eléctrica que variara en el tiempo, pero su solución no presentaba radiación. De donde concluyó que era “imposible” generar ondas electromagnéticas de forma eléctrica. Lo que no vió FitzGerald es que se había equivocado en el tratamiento de la condición de contorno para el potencial vector. Este resultado hizo que la búsqueda experimental de la generación de ondas electromagnéticas mediante campos eléctricos se retrasara unos años.

El gran genio que revolucionó el electromagnetismo fue Oliver Heaviside. Un genio matemático en toda regla, que nunca fue a la universidad, y aprendió ciencia y matemáticas de forma autodidacta (leyendo libros de la biblioteca). Heaviside reescribió las ecuaciones de Maxwell en su forma moderna. Heaviside se “enamoró” del tratado de Maxwell cuando cayó en sus manos “calentito” de la imprenta, en 1873. En ella época Heaviside trabajaba como telegrafista. Uno de sus primeras grandes contribuciones fue derivar la ecuación del telegrafista (la que modela la propagación de señales eléctricas en cables) a partir de la teoría de Maxwell.

En el verano de 1884, Heaviside empezó a estudiar el flujo de energía en el campo electromagnético de Maxwell. Su demostración era muy complicada, pero el resultado extremadamente simple S=ExH (aunque este resultado fue publicado por Poynting, en Birmingham, unos meses antes). En manos de Heaviside este resultado era muy importante ya que indicaba que la energía electromagnética se propagaba a velocidad finita evitando la “acción a distancia” que muchos repudiaban en la teoría de Maxwell. Trabajando con el concepto de energía en el campo, Heaviside encontró una nueva manera de expresar las ecuaciones de Maxwell, en solo 4 ecuaciones diferenciales para la divergencia y el rotacional de cuatro campos E, H, D y B. Los potenciales escalar (eléctrico) y vectorial (magnético) fueron relegados a un segundo plano por Heaviside. ¿Por qué no se llaman ecuaciones de Heaviside? El propio autor nos da la respuesta, ya que en su publicación de las mismas afirma que estas “nuevas” ecuaciones deben llamarse “ecuaciones de Maxwell.”

En 1888 entran en esta historia los físicos alemanes. Hermann von Helmholtz le había pedido a Heinrich Hertz (uno de sus estudiantes en Berlín) que estudiara experimentalmente la validez de las teorías del electromagnetismo de Maxwell, Weber y Neumann (teorías diferentes “competidoras” en aquella época). Hertz publicó en 1888 en Annalen der Physik un artículo en el que estudiaba la descarga de un condensador a través de un bucle observando una condición de resonancia que le llevó a pensar que se generaban ondas electromagnéticas. Estudió la reflección, refracción, difracción, y polarización de la luz tanto en ondas no guiadas como en las guiadas en un cable. La presentación de Hertz en septiembre de 1888 ante la British Association (en Bath) lo elevó a “héroe”. Sus resultados confirmaban completamente la teoría del electromagnetismo de Maxwell. Maxwell, tras 23 años, era elevado al “cielo de los genios.”

Hertz descubrió, independientemente de Heaviside, la teoría de 4 ecuaciones vectoriales de Maxwell, pero siempre afirmó que la prioridad era de Heaviside y siguiéndole decidió llamar a “sus ecuaciones” con el nombre de ecuaciones de Maxwell. De hecho, en Alemania fueron llamadas durante muchos años ecuaciones de Hertz-Maxwell. Hertz recibió la prestigiosa Medalla Rumford de la Royal Society en 1890 por su trabajo (cuando ya era catedrático de física en Bonn).

En 1887, Michelson y Morley realizaron su famoso experimento interferométrico con el que se empezó a dudar de la existencia del éter. Pero la historia de la llegada de las ideas de Lorentz, Einstein y otros, quien observaron que las ecuaciones de Maxwell eran “invariantes relativistas” y requerían una nueva mecánica con la misma invarianza, “mecánica relativista,” es otra historia.

Con motivo de la entrada 250 de este blog desde el 1 de enero de 2008, vamos a recopilar algunas estadísticas y recapitular un poco.

Gracias a vosotros, queridos lectores, este blog ha alcanzado un “equilibrio” (estado estacionario) con más de 10.000 visitas al mes (no es mucho, pero tampoco es poco). Muchos comentarios no habéis dejado (sólo 189). Parece que en este blog el que escribe soy yo. Las entradas más visitadas de todos los tiempos son las siguientes.

¿Por qué escribo un blog sobre “noticias” de ciencia? Para destensar un poco los “músculos” de mi cerebro. El blog me sirve para liberar estrés. A veces uno tiene ganas de perder el tiempo un rato, buscar por internet, … en lugar de hacerlo “a voleo”, pongo como excusa este blog y a vosotros y me dedico a escribrir sobre parte de lo que encuentro. Me quita tiempo, mucho tiempo, pero este año, por ahora, es el mejor en cuanto a mi rendimiento académico. Espero seguir así… y no os aburro más.

Hoy se cumplen los 790 días de la misión espacial PAMELA (Payload for Antimatter Matter Exploration and Light-nuclei Astrophysics), misión conjunta italiana-rusa-alemana-sueca. Uno de sus objetivos, estudiar la materia oscura empieza a dar sus primeros éxitos. Han encontrado un exceso de antielectrones (positones) en nuestra galaxia, como se publica en Geoff Brumfiel, “Physicists await dark-matter confirmation. PAMELA mission offers tantalizing hint of success,” News, Nature, 454:808-809, 13 August 2008 .Este exceso de positones no es fácil de explicar, siendo la explicación más razonable que su origen es la desintegración de WIMPS (weakly interacting massive particles). En concreto la desintegración del neutralino, una partícula supersimétrica de tipo fermión de Majorana, cuya desintegración conduce a la producción por igual de partículas y antipartículas, conduciendo a la observación de un exceso de antipartículas respecto al fondo esperado si no se diera esta desintegración. Y eso es lo que han observado, un exceso de antielectrones. ¿Es la primera observación de la supersimetría? Si lo es, sin lugar a dudas, es uno de los grandes descubrimientos astrofísicos del año.

El investigador principal de la misión PAMELA, Piergiorgio Picozza, de la Universidad de Roma Tor Vergata, “ocultó” los resultados encontrados hasta tener la aceptación del artículo en los que se publicarán en buzón (si en unos años se confirma que la materia oscura en nuestra galaxia son WIMPS, Picozza es “fuerte” candidato al Nobel de Física por este descubrimiento). La identificación de positones ultrarrápidos son extremedamente difíciles, pero los datos son indiscutibles. Los especialistas en materia oscura estaban esperando una señal como la que se ha encontrado desde hace muchos años. ¿Es la materia oscura la única explicación posible? Por ahora, es la explicación más simple y la más razonable. Los físicos no han desarrollado respuestas alternativas a este fenómeno porque pocos esperaban que fuera observado experimentalmente (podría justificarse por la emisión de estrellas de neutrones, púlsares y estrellas binarias de rayos X capaces de emitir positones de alta energía, pero estas fuentes deberían encontrarse en nuestra propia galaxia).

Este resultado no viene sólo. En abril de este año, otro grupo italiano, los científicos del experimento DAMA/LIBRA (Dark Matter/Large Sodium Iodide Bulk for Rare Processes) bajo la montaña italiana de Gran Sasso, proclamaron que también habían observado la materia oscura, Geoff Brumfiel, “Italian group claims to see dark matter – again. Gran Sasso detector picks up unusual signal,” News, Nature, 452:918 , 23 April 2008 y Geoff Brumfiel, “Physicists see the dark? Italian team says elusive particles spotted in underground detector,” Online News, Nature, 16 April 2008 . De hecho, ya habían observado una señal similar en septiembre de 2007.

Desafortunadamente para los investigadores de DAMA, el rango de energía para las WIMPS que ellos proclamaban haber encontrado entra en contradicción con el rango observado por PAMELA (también estaba en contradicción con los resultados previos del experimento americano Cryogenic Dark Matter Search II ).

En resumen, ¿realmente la materia oscura en nuestra galaxia está formada por WIMPS? La única manera de que no haya dudas es que el LHC del CERN encuentre la supersimetría (premio Nobel en un año), es decir, que encuentre las WIMPS (posiblemente la partícula llamada neutralino). En mi opinión, la SUSY será encontrada “con toda seguridad.” Enhorabuena a los investigadores de PAMELA por su gran trabajo.

En Teoría de la Relatividad, la máxima velocidad a la que se puede propagar “información clásica” es la velocidad de la luz (en el vacío), sea c. Nada puede propagar información (energía o materia) más rápido que la luz. Por supuesto, la velocidad de fase de una onda puede ser mayor que la velocidad de la luz. Por ejemplo, el punto de luz del foco del láser de la NASA que incide sobre nuestro satélite, la Luna, con objeto de medir su distancia a la Tierra, se “mueve” en la superficie de la Luna a una velocidad mayor que la luz (el cálculo trigonométrico es elemental). Pero, por supuesto, esto no viola la Teoría de la Relatividad, ya que no permite “mover” energía y/o información sobre la superficie de la Luna más rápido que la luz.

En Mecánica Cuántica (No Relativista) hay dos procesos físicos básicos completamente diferentes: la evolución unitaria “en tiempo” del estado cuántico de un sistema y el colapso de la función de onda “sin tiempo” tras un proceso de medida (por un “observador”) del sistema. La evolución unitaria es completamente compatible con la Teoría de la Relatividad y no permite la transmisión de “información cuántica” a una velocidad superior a c. Sin embargo, el colapso de la función de onda es un proceso “no dinámico” (al menos en la interpretación estándar o de Copenhague de la mecánica cuántica), que parece “que no ocurre en el espacio-tiempo relativista” con lo que “viola la Teoría de la Relatividad”. Todos los experimentos parecen indicar que ocurre “instantáneamente”, a una “velocidad infinita”. ¿Esto es realmente así? ¿Qué dicen los experimentos al respecto?

El último experimento que se acaba de publicar, Daniel Salart, Augustin Baas, Cyril Branciard, Nicolas Gisin, & Hugo Zbinden, “Testing the speed of ‘spooky action at a distance’,” Nature, 454:861-864, 14 August 2008 , indica que la velocidad del “colapso” de la función de onda es superior a 10 veces la velocidad de la luz, como mínimo, y en algunos casos superior a 10000 veces la velocidad de la luz, es decir, es prácticamente “instantánea.” Aunque el resultado no es nuevo, ya se había medido esta velocidad con anterioridad, sí se trata de la medición más reciente y precisa de dicho “sorprendente” fenómeno. Para los intresados en una versión “comentada” del artículo por un especialista les recomiendo la noticia de Terence G. Rudolph, “Quantum mechanics: The speed of instantly,” Nature, News and Views, 454:831-832, 14 August 2008 .

Salart et al. han enviando dos fotones entrelazados (generados en Ginebra) a dos ciudades suizas (Satigny y Jussy) separadas 18 kilómetros. Como los fotones están entrelazados, si un fotón tiene un estado (+) el otro tiene (-) y viceversa; hasta que no se mide alguno de ellos no se puede saber en qué estado tiene cada partícula (“teóricamente” ambos fotones se encuentran en ambos estados simultáneamente). Los investigadores han “medido” una de las partículas en una de las ciudades y han tratado de medir cuánto tiempo requiere la otra partícula para “enterarse” del estado que “tiene que” tener (si la otra era (+) ella es (-) y viceversa). Si se ha “transmitido una señal” entre ambas partículas para informar a la segunda del estado que tiene que tener en función del valor medido en la primera, teniendo en cuenta la velocidad de los equipos ópticos y electrónicos utilizados en la medida, dicha señal se debe haber transmitido a una velocidad “enorme”.

La figura muestra la velocidad mínima “experimental” para la transmisión de la señal “cuántica” que “transmite” el resultado del colapso en función de la velocidad de la Tierra. En la figura, beta=v/c es el cociente entre la velocidad de la Tierra v respecto a un sistema en reposo absoluto (no relativista) y la velocidad de la luz c, suponiendo que la “información cuántica” se transmite “muy rápido” respecto a dicho sistema en reposo absoluto. Este sistema en reposo “absoluto” es necesario por ciertas teorías alternativas a la mecánica cuántica (como la teoría de la onda-piloto de de Broglie-Bohm) como sustrato respecto al cual se propaga la “información cuántica” a una “velocidad finita”. Según la Mecánica Cuántica convencional, la velocidad es infinita, es decir, el colapso es instantáneo. Como muestra la figura, la velocidad de transmisión de información cuántica (V_QI) es hasta 10000 veces superior a la velocidad de la luz para beta igual a una milésima. En el caso “poco razonable” de que la Tierra se mueva a la velocidad de la luz respecto al sistema en reposo “absoluto”, cuando beta=1, la “señal” cuántica se ha propagado a una velocidad al menos de 10 veces más rápido que la velocidad de la luz.

Este resultado confirma, casi sin lugar a dudas, que el colapso de la función de onda se produce “instantáneamente”, es decir, no se produce “en el tiempo”. ¿Qué es el tiempo? ¿Qué es el tiempo en Mecánica Cuántica? La evolución unitaria del estado cuántico ocurre en el tiempo como magnitud “clásica” (es un parámetro en las ecuaciones que no corresponde a un operador cuántico). En Mecánica Cuántica podemos describir un intervalo de tiempo, una duración de un proceso, con un operador cuántico. Pero nadie sabe cómo describir el tiempo, una sucesión de instantes de tiempo. El colapso de la función de onda, en mi opinión, será “entendido” cuando se logre entender el tiempo como magnitud cuántica (o quizás, precuántica). Entender el tiempo desde un enfoque cuántico nos permitirá entender la gravedad en un contexto cuántico.

El tiempo, el colapso de la función de onda, la gravedad cuántica, … ¡cuántas cosas nos quedan aún por conocer!

APÉNDICE: La noticia también aparece en la “competencia,” el servidor de noticias de la revista Science: Phil Berardelli, “Quantum Physics Gets “Spooky”,” ScienceNOW Daily News, 13 August 2008 . Berardelli empieza con “This might be a rare case about which Einstein was wrong,” y acaba con “I am sure we are not finished unveiling what the quantum [effects] due to entanglement really are and how powerful they can be.”

Los resultados experimentales relativos a la búsqueda del bosón de Higgs (predicho por el Modelo Estándar de partículas elementales y aún no encontrado) indican que su masa es mayor de 114 GeV (unas 121 veces la masa del protón). El Tevatrón en el Fermilab (cerca de Chicago, EEUU) está buscando “desesperadamente” al bosón de Higgs en el rango de masas de 114 a 200 GeV. Sin embargo, su luminosidad no este rango no es tan buena como la del LHC (Large Hadron Collider) del CERN que empezará a funcionar el 10 de septiembre (fecha planificada a día de hoy). El LHC puede encontrar un bosón de Higgs con una masa entre 114 GeV y 1000 GeV (1 TeV), para lo que utilizará a pleno rendimiento colisiones protón-antiprotón con hasta 7 TeV en su centro de masas. Sin embargo, la luminosidad del LHC para posibles detecciones del Higgs es baja en el rango de masas de 114 a 125 GeV aunque mejora mucho conforme la masa en reposo del Higgs cece. ¿Quién será el primero en observar el Higgs? ¿El LHC europeo o el Tevatrón americano?

En la web de Scientific American (que 2 meses más tarde es traducida al español como Investigación y Ciencia) acaba de aparece la noticia “Fermilab says: “Hey wait, we’re in the Higgs hunt, too!,” Aug 8, 2008 , artículo escrito por J.R. Minkel, traducida “Eh! Que el Fermilab puede encontrar el Higgs antes que el LHC.” De hecho, ahora han empezado una búsqueda por intervalos y acaba de excluir un bosón de Higgs con una masa de unos 170 GeV (aunque no uno con una masa entre 114 y algo menos de 170, o uno con algo más de 170). Para ello han combinado resultados obtenidos con los detectores CDF y DZero del Tevatron. Es la primera vez que el Tevatron restringue de esta forma la masa del Higgs, y no será la última (Fermilab Today, “Tevatron experiments double team Higgs boson,” 4 August 2008).

Ahora mismo parece estar de moda “comentar” las predicciones del blog multiautor “Cosmic Variance,” en el que 6 físicos escriben sobre física y sobre “sus cosas.” La entrada más comentada es “What will the LHC find?,” de Sean Carroll, físico del Caltech de gran reputación, especialmente por su faceta de divulgador científico (sigue la línea “comercial” de Paul Davis, en mi opinión, claro). ¿Y qué hace el Dr. Carroll en dicha página? Pues cuantifica el porcentaje de posibilidades de que el LHC descubra cosas. ¿Cómo lo cuantifica? Por su “cara bonita.” Faltaría más. Cual Paul Davis, si el lo dice, que los demás se lo crean. Desafortunadamente para tí, estimado lector, a mí no me gusta la “cuantificación religiosa” y prefiero la “cuantificación empírica.” Tomemos, por ejemplo, Scopus de Elsevier (y las páginas web de Scirus). Como veremos, la web es más optimista que la literatura científica. Recapitulemos.

El LHC encontrará el bosón de Higgs con una probabilidad del 95% según Carroll. Hay 4337 artículos (55869 en la Web según Scirus) sobre el bosón de Higgs de los cuales 33 (569) son sobre teorías sin Higgs, es decir, en mi “opinión” hay un 99.24% (98.98%) de probabilidades de que se encuentre el Higgs en el LHC ya que ese porcentaje de artículos publicados considera que el Higgs “existe.” Soy más optimista que Carroll.

El LHC encontrará pruebas de la supersimetría con una probabilidad del 60%. Hay 11777 artículos (104156 en la Web) sobre supersimetría de los cuales 1001 (11777) discuten sobre la posiblidad de que la supersimetría no sea econtrada en el LHC, por tanto, en mi “opinión” hay 91.50% (80.93%) de posibilidades de que se encuentre la supersimetría en el LHC (mi “apuesta” es que el Nobel de Física será recibido por los directores del LHC por el descubrimiento de la supersimetría). También soy más optimista que Carroll.

El LHC encontrará pruebas de dimensiones espaciales “grandes” tipo Arkani-Hamed (dimensiones compatificadas) con una probabilidad del 1% (10%). Además, encontrará evidencia a favor o en contra de las supercuerdas con una probabilidad del 0.5%. Sólo 11 artículos (1246 webs) de 534 (6270) sobre dimensiones espaciales superiores compactificadas consideran la posibilidad de encontrarlas en el LHC con lo que en mi “opinión” la probabilidad de encontrarlas en el LHC es sólo de 2.06% (19.87%). Pero si, como creo, esta “opinión” hay que contextualizarlas en el marco de la teoría de cuerdas el valor se reduce a sólo el 0.32% (5.21%). De hecho, las probabilidades de encontrar pruebas a favor o en contra de “las ideas” de supercuerdas en el LHC se reflejan en sólo 38 (1908 ) artículos de 3413 (23918 ), es decir, con una probabilidad del 1.11% (7.98%). Sorprendentemente, grosso modo, “coincido” con Carroll en sus órdenes de magnitud.

El LHC encontrará pruebas de agujeros negros de evaporación rápida (estables y peligrosos para la vida en la Tierra) con una probabilidad del 0.1% (10^(-25) %). ¿De dónde habrá sacado Carroll estos números? Hay 194 artículos (7051 webs) sobre agujeros negros en el LHC de un total de 19737 (736137) sobre agujeros negros en general, por tanto, la “probabilidad”de encontrar agujeros negors de evaporación rápida en el LHC es del 0.98% (0.96%). En mi “opinión” personal esta probabilidad es realidad mucho más alta de la “correcta” y coincido con Carroll en que un 0.1% es más razonable. En cuanto al peligro de los mismos. En mi opinión, la probabilidad de 10^(-25) de Carroll, similar en orden de magnitud a la probabilidad de que en el próximo segundo caiga un meteorito sobre la Tierra y la destruya, es despreciable. Por ello, creo que la probabilidad de que el LHC sea inseguro es “nula”.

El LHC encontrará evidencia de la materia oscura con una probabilidad del 15%. Este valor contradice a la probabilidad de encontrar la supersimetría (60% según Carroll), ya que prácticamente todos los investigadores creen que la materia oscura no es otra cosa que partículas supersimétricas. Como ya he indicado, mi “opinión” es que la supersimetría y la materia oscura (la partícula supersimétrica de menor masa en reposo) serán encontradas con gran probabilidad, del orden del 90%.

Continuará… o no.

Por cierto, si habéis llegado hasta aquí, no podéis dejar de leer Higgs 101 (y no os asustéis con el lagrangiano de la teoría electrodébil, el del Modelo Estándar completo es aún más complicado y no digamos el del Modelo Minimal Supersimétrica, la física teórica no es fácil).