Hoy, 24 de agosto, el Instituto Clay de Matemáticas debería anunciar el Premio de 1 Millón de dólares a la demostración de la conjetura de Poincaré, ya que se cumplen 2 años desde que John Morgan impartió su conferencia especial en el ICM 2006 de Madrid, titulada “A report on the Poincaré Conjecture,” que se inició con un clamoroso aplauso tras sus palabras “La conjetura de Poincaré ha sido demostrada.”

Busca en http://www.icm2006.org/video/ la tercera conferencia de la cuarta sesión “Fourth Session” y disfruta en diferido (yo la disfruté en vivo y en directo) de la conferencia de Morgan (dirigida a los periodistas y al público en general).

Espectacular foto “The moon and the torch.” La refracción de luz de la Luna a través de la llama de la antorcha da la sensación de que la antorcha esá quemando a la Luna.

Según su autor, Ryan Pierse: “Tras la carrera de los 100 m. miré hacia la Luna y observé que estaba saliendo por encima del estadio. ¡No lo podía creer! ¡Qué suerte! Dejé de tomar fotos del estadio y me preparé para tomar la foto de la Luna. Tuve que esperar varios minutos y la Luna se alineó con la antorcha.”

La refracción de la luz también ha sido importante en la polémica de la décima de segundo entre el americano Michael Phelps y el serbio Mirolad Cavic en la final de los 100 m. mariposa. El artículo “Could Simple Light Refraction be to Blame for the Phelps’ Swimming Controversy?,” de David Gross, August 16th, 2008 , trata de explicarlo.

La foto finish de alta velocidad obtenida con una cámara sumergida debajo de la piscina parece indicar que el serbio va por delante del americano (ver más abajo). Sin embargo, los sensores electrónicos en la llegada afirman lo contrario. La física de la refracción de la luz puede explicar el “efecto visual” y resolver la polémica. De hecho, la cámara fuera de la piscina parece indicar lo contrario y muestra a Phelps llegando primero. La diferencia entre la cámara sumergida y la de la superficie nos indica sin lugar a dudas que la refracción en el agua es la responsable de la polémica.

La refracción de la luz (ley de Snell) es la responsable de que un lápiz sumergido en un vaso de agua parezca “doblado” a la altura de la superficie del agua. Es una ilusión óptica. Dependiendo del ángulo entre la cámara sumergida en la piscina y la superficie del agua es posible observar un fenómeno similar en la foto de los competidores, creando la ilusión de que el serbio llega el primero. De hecho, ambos nadadores tienen sus manos (brazos) sumergidos en la llegada.

En cualquier caso, la polémica no quita que Phelps es el Tarzán de esta olimpiada y uno de los nadadores más poderosos de la historia. A mí lo que no deja de sorprenderme es la gran cantidad de récords del mundo que se baten en natación todas las olimpiadas. La ciencia del deporte tiene mucho que decir al respecto.

Simulación 3D de la explosión de una estrella enana blanca en una supernova tipo Ia (las que han demostrado la aceleración de la expansión del universo). La simulación utiliza una resolución de 6 km y presenta la densidad y la variable de progreso de la reacción. La burbuja inicial tiene un radio de 18 km. El artículo técnico es “Three-Dimensional Simulations of the Deflagration Phase of the Gravitationally Confined Detonation Model of Type Ia Supernovae” Jordan et al., 2007 [ ArXiv preprint ]. Simulación 3D que presenta la densidad y temperatura.

Las supernovas tipo Ia son una de las estrellas recientes de la astrofísica, dada su importancia como “candelas estándares” en cosmología. Su observación ha permitido demostrar que la expansión del universo se está acelerando así como la presencia de “energía oscura”. ¿Cómo explota una enana blanca para convertirse en supernova Ia? La mayoría de los teóricos creen que una detonación es necesaria. Las simulaciones ilustran este proceso. Las 7 simulaciones presentadas en el artículo se enmarcan en la teoría llamada detonación confinada gravitatoriamente (gravitationally confined detonation, GCD) y tratan de demostrar que la detonación es una fase necesaria en dicha teoría.

En las simulaciones se parte de una enana blanca de 1.38 masas solares, con una composición uniforme de carbono y oxígeno, a partes iguales. Se supone que la enana blanca recibe materia (acreción) de una estrella compañera (normalmente una gigante roja) hasta alcanzar una masa crítica (límite de Chandrasekhar) momento en el que la enana blanca, básicamente una estrella sostenida por la presión generada por el principio exclusión de Pauli aplicado a los electrones libres del carbono y oxígeno, no puede superar la presión gravitatoria, con lo que colapsa, incrementando su temperatura y generando la ignición de su carbono en el núcleo de la estrella. Esta ignición genera un chorro (ilustrado en las animaciones) que parte de su centro y se extende rápidamente hasta las capas más externas.

Los vídeos muestran como la burbuja se vuelve inestable (debido a turbulencias generadas por una inestabilidad de Rayleigh-Taylor) generando una estructura con forma de hongo (como una explosión nuclear) antes del primer segundo. Cuando el hongo alcanza la superficie de la estrella, se rompe y se propaga por la superficie hasta alcanzar el extremo opuesto de la esfera de la estrella, momento en que se produce la detonación que acaba conduciendo a la explosión de la supernova (solamente 1.7 segundos desde el inicio del proceso). Las animaciones muestran muy bien cómo se produce la transición entre una deflagración subsónica hasta una detonación supersónica. Durante la detonación se quema, en cuestión de segundos, una cantidad de carbono que a una estrella normal le llevaría cientos de años. Esta increíble energía libera una colosal onda de choque que destruye la estrella expulsando toda su masa a velocidades de alrededor de 10.000 km/s. La energía liberada en la explosión también causa un aumento extremo en su luminosidad siendo este tipo de supernovas (el tipo más luminoso de todos). Normalmente no queda ni rastro de la estrella que originó el cataclismo, sólo restos de gas y polvo sobrecalentados en rápida expansión.

Las supernovas de tipo Ia poseen una curva de luz característica. El parecido en las formas y en la magnitud de las curvas de luz de todas las supernovas de tipo Ia observadas hasta la fecha, ha hecho que sean utilizadas como medida estándar de luminosidad en la astronomía extragaláctica, lo que en términos astrofísicos se llama una candela estándar (se pueden calibrar con una décima de magnitud). Gracias a su alta luminosidad pueden ser detectadas en galaxias muy lejanas (con alto corrimiento al rojo). De ahí su importancia cosmológica. Las nuevas simulaciones permiten entender mejor cómo explotan este tipo de supernovas.

El Modelo Estándar de las partículas elementales se caracteriza por la existencia de 3 familias de quarks y leptones. La primera familia está formada por los quarks arriba (up) y abajo (down) en la forma (uL,dL) y (uR,dR), donde L y R corresponden a las componentes de quiralidad izquierda y derecha de una partícula de espín 1/2. Cada quark está caracteriza por una carga de color: rojo (R), amarillo (Y) y azul (B). Además, hay dos leptones, un electrón y un neutrino, sin carga de color, (eLL), eR(donde se ha supuesto que el neutrino es una partícula de Majorana νRL pero todavía no sabemos si lo es o es de Dirac). Por tanto la primera familia contiene 15 “partículas” de dos componentes (12 quarks y 3 leptones). Hay una segunda familia, formada por los quarks encanto (c) y extraño (s), y una tercera familia, formada por los quarks fondo (b) y cima (t). ¿Hay una cuarta familia? Los resultados del LEP2 (Delphi para neutrinos, Aleph para quarks) parecen indicar que existen sólo 3 familias (exactamente 2.9840 ± 0.0082) . ¿Podría existir una cuarta familia? Caso de existir deberían ser partículas muy masivas, con una masa superior a 250 GeV, con un neutrino asociado extremadamente masivo (la curva de la figura depende de los modos de desintegración del bosón vectorial electrodébil Z, con lo que el neutrino asociado a la cuarta familia debe ser más masivo que dicho partícula). De existir, la cuarta familia (o generación) sería detectada el próximo año en el LHC del CERN.

¿Por qué hay exactamente 3 familias? Ese es el “problema de las familias”. Nadie lo sabe.

En teoría de cuerdas la mejor manera de obtener el Modelo Estádar, en el modelo heterótico de cuerdas, conduce al llamado Modelo Minimal Supersimétrico (MSSM), caracterizado por un grupo de simetrías internas (locales) de tipo SO(10) que contiene al producto de grupos SU(3) X SU(2) X U(1), que caracteriza al Modelo Estándar. En este contexto se predicen 3 generacions de partículas elementales. Ver una explicación inglés en Reference Frame blog (hace referencia al paper siguiente). De todas formas el modelo heterótico es tan general, depende de la variedad de Calabi-Yau que seleccionemos para el vacío, y hay “muchas” posibles, que permite prácticamente cualquier cosa del tipo del Modelo Estándar y prácticamente cualquier número de generaciones. Más información en Reference Frame blog. Luego es una explicación “forzada” (y se puede “forzar” cualquier otra).

Con ocho basta. Digo, … con tres basta.

Entrada en BackReaction sobre el tema.

Entrada en la wikipedia sobre las tres generaciones.

Zoología de las partículas.

Quizás el responsable de las 3 generaciones es el principio antrópico (una casualidad en el big bang).

B.F.L. Ward es un físico teórico afroamericano que ha desarrollado una teoría consistente para la gravedad cuántica, llamada teoría “resumada” de la gravedad cuántica (ya que suma a todos los órdenes, “resuma”, todas las correcciones de alto orden o radiactivas). Presentó su teoría en B.F.L. Ward, “Quantum Corrections to Newton’s Law,” Mod. Phys. Lett. A17 (2002) 2371-2382. Su teoría está acoplada al Modelo Estándar a través del bosón de Higgs. La gran ventaja de su teoría es que todas las correcciones de tipo bucle al campo del gravitón son finitas, a todos los órdenes (al contrario de la teoría de la gravedad cuántica “estándar” que en la que divergen en el límite ultravioleta).

Una de las consecuencias más interesantes de su teoría es que las partículas elementales masivas no son microagujeros negros, como ilustró en B.F.L. Ward, “Are Massive Elementary Particles Black Holes?,” Mod. Phys. Lett. A19 (2004) 143-150 y en B.F.L. Ward, “Massive Elementary Particles and Black Hole Physics in Resummed Quantum Gravity,” Int. J. Mod. Phys. A20 (2005) 3128-3131. ¿Cómo dice? La teoría general de la relatividad de Einstein es nuestra mejor teoría “clásica” para la gravedad y su validez experimental ha sido comprobada en múltiples ocasiones. Sin embargo, si aplicamos dicha teoría “ad hoc” a cualquier partícula elemental “puntual” con masa en reposo no nula, resulta que su masa en reposo se encuentra completamente dentro de su radio de Schwarzschild, es decir, es un agujero negro “clásico”. Este radio es igual a rs=2(m/MPl)(1/MPl), donde m es la masa de la partícula (la más pesada conocida tiene unos cientos de GeV) y MPl es la masa de Planck, mayor de 1019 GeV. El radio rs es extremadamente pequeño, pero finito, lo que indica que una partícula “puntual” debe ser un agujero negro y si Hawking tiene razón debería radiar hasta evaporarse (mediante radiación de Bekenstein-Hawking). ¡Pero las partículas elementales no se evaporan! En la teoría de Ward, las partículas elementales no son microagujeros negros (no tienen asociado un horizonte de sucesos) gracias a los efectos gravitatorios cuánticos, gracias a su teoría.

Es curioso que algo que parece “obvio,” hay que demostrarlo y que la demostración requiere una nueva teoría cuántica de la gravedad. ¿Por qué muchos afirman que todavía no se tiene una teoría cuántica de la gravedad? La razón es que la teoría de Ward no ha sido demostrada experimentalmente. Por ejemplo, introduce en el potencial del campo gravitatorio de Newton una corrección de tipo exponencial, pero es muy pequeña para ser detectable con los experimentos actuales.

Para los interesados en más detalles de esta teoría es interesante leer los breves artículos de revisión B.F.L. Ward, “Quantum Corrections to Newton’s Law in Resummed Quantum Gravity,” Int. J. Mod. Phys. A20 (2005) 3502-3506, y B.F.L. Ward, “Resummed Quantum Gravity,” ArXiv preprint, 2006.

¿Qué pasa con un agujero negro astrofísico en las fases finales de su evaporación? ¿Aparece una singularidad desnuda? Según la teoría de Ward se alcanza una masa límite del orden de la masa de Planck y se obtiene una partícula “reliquia” (Planck renmant) que sería detectable en los rayos cósmicos. ¿Se han observado partículas con una masa/energía del orden de la escala de Planck en los rayos cósmicos? Hay cierta evidencia, todavía sin confirmar, de la existencia de rayos cósmicos ultraenergéticos. En concreto, (1) 57 eventos en los datos disponibles por AGASA hasta el año 2000 y 34 eventos en los de Yakutsk hasta el año 2005 con energía mayor de 4×1019 eV; y (2) algunos eventos aislados de los datos de SUGAR y de HiRes con energía mayor de 1×1019 eV, según M. Kachelrie and D.V. Semikoz, “Clustering of ultra-high energy cosmic ray arrival directions on medium scales,” Astroparticle Physics, 26:10-15 (2006). Por ahora, la interpretación de estos datos es difícil y sujeta a controversia, A. Cuoco, G. Miele, and P.D. Serpico, “Astrophysical interpretation of the medium scale clustering in the ultrahigh energy sky,” Physics Letters B, 660:307-314 (2008 ). Se necesitan más datos, en especial del mayor observatorio de rayos cósmicos del mundo, situado en Argentina, el Pierre Auger Observatory. “El Observatorio Auger ha sido diseñado para la detección y el estudio, con una calidad y precisión sin precedentes, de los rayos cósmicos de energías cercanas y por encima del límite de GZK, o lo que es lo mismo, con energías de más de 1019 eV. Dentro de los límites del conocimiento actual, no hay ninguna explicación satisfactoria de los mecanismos de producción en el universo de partículas a tales energías macroscópicas. El proyecto Auger es, por tanto, el único medio que la comunidad científica puede proponer con el objeto de resolver un enigma astrofísico que dura ya más de 30 años.”

Los primeros datos del observatorio Auger, todavía en construcción, parecen indicar que el origen de los rayos cósmicos más energéticos se encuentra en galaxias cercanas que poseen núcleos activos (AGN) en lugar de distribuidos de forma uniforme por el cielo, The Pierre Auger Collaboration, “Correlation of the Highest-Energy Cosmic Rays with Nearby Extragalactic Objects,” Science, 318, 938 – 943, November 9, 2007 . En sus primeros 3.7 años, han demostrado que las direccions de llegada de los 80 rayos cósmicos con energías por encima de 6×1019 eV que han detectado están correlacionadas con la posición de núcleos activos de galaxias en nuestra cercanía (unos 75 megaparsecs). La hipótesis de una distribución isótropa es rechazada con una intervalo de confianza del 99%. Lo que se traduce en un claro revés a la teoría de Ward. ¡Qué le vamos a hacer!

A veces, reeler artículos clásicos de genios de hace muchos años le ofrece a uno nuevas visiones sobre la opinión y el trabajo de dichos genios. Comentarios que hoy serían “polícitamente incorrectos” aparecen habitualmente en dichos trabajos. Un ejemplo, “Quantum Theory of Gravitation,” Richard P. Feynman, Acta Physica Polonica, 24:697-722, 1963 (citado más de 433 veces en el Thomson/Reuters ISI Web of Science).

Leemos literalmente “There’s certain irrationality to any work in (quantum) gravitation (…) shown in the strange gadgets of Prof. Weber, in the absurd creations of Prof. Wheeler and other things. But since I am among equally irrational men I won’t be criticized I hope.” [Hay muchas cosas irracionales en cualquier teoría de la gravitación (cuántica) como los extraños artefactos de Weber, o las absurdas creaciones de Wheeler, entre otras cosas. Pero, como yo soy tan irracional como ellos, espero que no seré criticado] (por mi trabajo en este campo).

¿Qué pretende calcular Feyman en este artículo suyo? La corrección cuántica de los niveles atómicos (efecto tipo Lamb) del átomo de Hidrógeno debida a efectos gravitatorios. ¿Por qué es absurdo o irracional calcularla? Porque el resultado es extremadamente pequeño, del orden de 10^(-120), imposible de determinar experimentalmente.

Feynman lo tiene claro “I am investigating this subject despite the real difficulty that there are no experiments. Therefore there is no real challenge to compute true, physical situations.” [Investigo en este campo aunque sé que la gran dificultad es la ausencia de experimentos. Por tanto, el cálculo no tiene utilidad en situaciones físicas “de verdad”]. Palabras que deberían afirmar muchos físicos que trabajan hoy en teoría de cuerdas.

Feynman “linealiza” las ecuaciones clásicas de Einstein de la gravedad y construye una teoría “cuántica” perturbativa para la gravedad (desarrolla una teoría cuántica de campos para el gravitón suponiendo que es una fluctuación pequeña sobre una solución clásica de las ecuaciones de la gravedad de Einstein). En el orden más bajo, el clásico, en el que sólo se intercambia un único gravitón, no hay ningún problema. “Everything is all right, there is no difficulties. I emphasize that this contains all the classical cases (…) This is not meant as a grand discovery, because after all, you’ve been worrying about all the difficulties that I say don’t exist.”

Sin embargo, todo se va al traste cuando consideramos correcciones de mayor orden, porque el gravitón gravita, lo que complica en extremo el desarrollo perturbativo. Feynman trata de calcular los diagramas del siguiente orden sin éxito. Recurre a una analogía, realizar un cálculo similar para una teoría de Yang-Mills pura (“everything has its analogue precisely, so it is a very good example to work with“). Este cálculo le cuesta un día (“the Yang-Mills case took me about a day“) sin embargo, en el caso gravitatorio no es capaz de realizarlo (“in the case of gravitation I tried again and again and was never able to do it“). ¿Cómo realizar el cálculo? Recurre a John Matthews y le pide que use un ordenador para desarrollar el cálculo. “I did the integrals myself later, but the algebra of the thing was done on a machine (…) I couldn’t have done it by hand.” Quizás la primera aplicación de los ordenadores y el álgebra simbólica al cálculo de diagramas de Feynman, como él mismo observa “I think it’s historically interesting that it’s the first problem in algebra that I know of that was done on a machine that has not beend one by hand.” El resultado es difícil de entender, parece que “falta algo”. ¿Qué pasa en las correcciones de aún mayor orden? Son incluso más difíciles de entender. ¿Es la teoría renormalizable? Parece que no. La teoría de perturbaciones (el uso de diagramas de Feynman) no funciona para la gravedad cuántica.

Feynman lo confiesa, confiesa su incapacidad. “It’s surprising, I can’t understand it (…) unfortunately, although I could retire from the field and leave you experts who are used to working in gravitation to worry about this matter, I can’t retire on the claim (…) that the thing is now really irrational, if it was not irrational before.”

Pero Feynman es un genio tozudo y testarudo, como una mula: “I’m stuck to have to continue this investigation, and of course you all appreciate that this is the secret reason for doing any work, no matter how absurd and irrational and academic it looks.”

John Bardeen entró en 1923 en una universidad americana de “segunda” la University of Wisconsin, en Madison, para estudiar ingeniería. El hijo de uno de sus profesores de Matemáticas, John Van Vleck, nueve años mayor que él, llegó a la University of Wisconsin a finales de 1928 para impartir un curso anual sobre Física Cuántica, uno de los primeros cursos de este tipo en EEUU, que introdujo a Bardeen a la Mecánica Cuántica que se acababa de desarrollar en Europa entre 1925 y 1926. Van Vleck era experto en la “antigua” mecánica cuántica y había escrito en 1926 un libro de texto sobre ella, “Quantum Principles and Line Spectra.” Que Bardeen también estudió. Bardeen destacó como alumno y Van Vleck le recomendó que considerara seriamente una carrera en Física. Él pensabe que “las únicas salidas de Física y Matemáticas eran dar clase en la Universidad y él no quería acabar así.” Ya graduado decidió estudiar alemán durante un año y aprovechó para estudiar los cursos de doctorado en Física. Entre estos cursos, recibió uno del holandés Peter Debye y otro del británico Paul Dirac, de sólo 27 años. Dirac cubrió en su carso la mayor parte de su futuro libro de texto “The Principles of Quantum Mechanics,” todo un clásico hoy en día. Por Madison también pasaron otros genios de la nueva mecánica cuántica, como Werner Heisenberg y Arnold Sommerfeld.

Bardeen acabó los cursos de su carrera en 1928, con 20 años, y defendió su proyecto fin de carrera (Master Thesis) en 1929. Solicitó una beca para visitar Europa, en concreto para estudiar Física en el Trinity College de Cambridge, UK. Sin embargo, a pesar de sus buenas recomendaciones, no se la concedieron. Se tuvo que quedar en Madison como ayudante de investigación de Edward Bennett que trabajaba en los efectos de la difreacción en el diseño de antenas. La depresión de 1929 hizo difícil que Bardeen encontrara trabajo, recayendo finalmente en 1930 en la “Gulf Oil Company” de Pittsburgh, que le ofreció un puesto de geofísico, para estudiar prospecciones petrolíferas.

La investigación y el mundo académico “tiran mucho.” Bardeen decidió retornar, abandondando un buen puesto de trabajo en Gulf. Solicitó ser admitido en Princeton para desarrollar un Doctorado en Matemáticas, en 1933, cuando ya tenía 25 años. La cruzada de Hitler contra los científicos judíos hizo que muchos emigrasen a EEUU y algunos de los mejores acabarían en Princeton, atraídos por el nuevo Institute for Advanced Study (fundado por un propietario de una línea de supermercados que no sufrió la crisis del 1929, “todo el mundo tiene que comer,” y quiso “retornar” a sus conciudadanos parte de sus beneficios). Al IAS llegaron físicos de la talla de Albert Einstein, Hermann Weyl, Eugene Wigner o John von Neumann. En 1933, Princeton era uno de los mejores lugares de EEUU para estudiar Física y Matemáticas, todo un paraíso.

Walter Brattain era uno de los compañeros de clase de Bardeen en Princeton y rápidamente “hicieron buenas migas”. Walter simultaneaba sus estudios con un trabajo como físico en los Bell Telephone Laboratories, la rama de investigación y desarrollo de la American Telephone and Telegraph Corporation (AT&T). Era de los pocos físicos de los Bell Labs que pensaba que la mecánica cuántica sería muy importante a la hora de resolver los problemas de comunicaciones de la AT&T. Logró que la propia compañía le pagara los estudios tras asistir a una conferencia de Arnold Sommerfeld, en Ann Arbor, en la Escuela de Verano de Física Teórica de Michigan en 1931, sobre las nuevas teorías “del electrón” en los metales.

Eugene Wigner estaba interesado en aplicar la nueva mecánica cuántica al estudio de los sólidos. Bardeen decidió hacer su tesis doctoral bajo la dirección de Wigner (sólo 6 años mayor que él). Wigner le sugirió a Bardeen que calculara la función de trabajo de un metal, la energía necesaria para extraer un electrón de su superficie. Una tesis doctoral en Física Teórica del Estado Sólido, a principios de los 1930s cuando sólo en 2 lugares en el mundo se ofrecían doctorados en este tópico: uno en el MIT, en Massachusetts, bajo la dirección de John Slater, y otro en la University of Bristol, Gran Bretaña, bajo la dirección de John E. Lennard-Jones, Nevill Mott, y Harry Jones. En su tesis doctoral Bardeen utilizó la aproximación de Hartree-Fock para la función de onda del electrón en un metal con objeto de resolver el problema planteado por Wigner. La defendió en enero de 1936 (su padre falleció el año anterior lo que le retrasó la defensa de la tesis). Gracias a su tesis logró una plaza de investigador en Harvard, Cambdrige, el mejor lugar para realizar un postdoc en EEUU en la época, como “junior fellow”.

En Harvard, Bardeen trabajó entre otros temas de la física del estado sólido en la teoría de la superconductividad. En 1933, Meissner y Ochsenfeld descubrieron que los superconductors repelen campos magnéticos, el “efecto Meissner,” lo que indicaba que la transición de fase entre estado normal y superconductor de un metal era reversible. Los hermanos London, Fritz y Heinz, desarrollaron una teoría fenomenológica de la superconductividad para explicar dicho efecto. Bardeen trató de extender y generalizar esta teoría pero sin éxito. Entre 1935-36, Bardeen se hizo amigo de William Shockley, entonces estudiante de doctorado de Slater. En marzo de 1936, Shockley recibió una oferta de trabajo envidiable para trabajar en los Bell Telephone Laboratories que no pudo rechazar. Para sorpresa de sus compañeros, Bardeen abandonó Harvard en mayo de 1938 para aceptar una plaza de Assistant Professor en la University of Minnesota, Minneapolis, invitado por John Tate, editor principal de la revista Physical Review, quien fue director de la tesis doctoral de Walter Brattain, quien deseaba un departamento “fuerte” en física del estado sólido. Bardeen aprovechó para casarse.

Con la Gran Guerra, se vio obligado a abandonar la Universidad y dedicarse a servir a la patria en investigación militar (acabó recibiendo una Medalla al Mérito Civil). Tras la guerra, la Física del Estado Sólido era reconocida como una de las grandes ramas de la Física y Kelly, los Bell Labs, quien atrajo a Shockley, quería formar un grupo “fuerte” en esta materia. Contaba también con Walter Brattain entre otros, y estaba intereado en Bardeen, a quien ofreció mejor salario y sin obligaciones docentes. Bardeen no pudo rechazar la oferta y el 15 de octubre de 1945 ya era miembro de los Bell Labs para trabajar en física de semiconductores, junto a Brattain y Shockley.

El 22 de octubre de 1945, Shockley le pidió a Bardeen que estudiara un diseño que había desarrollado 6 meses antes para un amplificador de “efecto de campo” de silicio. Sin embargo, el diseño en la práctica no funcionaba. Shockley no sabía el porqué, ya que las teorías de semiconductores en boga como las de Mott y Schottky predecían lo contrario. Bardeen sabía que la teoría debía estar mal. Faltaba algo. Aplicó algunas de las técnicas que desarrolló en su tesis doctoral para el estudio de electrones en superficies y mejoró la teoría, pero no logró resolver el problema completamente. En verano de 1947, Shockley y Bardeen estuvieron de gira por Europa. Tras retornar, Shockley decidió reorientar su investigación a problemas de dislocaciones en semiconductores.

Noviembre de 1947 fue el mes “mágico” para Bardeen: Brattain había encontrado que gotas de agua en la superficie del amplificador de Shockley alteraban mucho su comportamiento eléctrico. Bardeen sugirió que los iones móviles en los electrolitos (o las gotas de agua) podían crear un campo eléctrico suficientemente grande como para superar los estados electrónicos superficiales que reducían el efecto de amplificación. Depositando agua o un electrolito se lograba formar una capa de carga positiva en una superficie y una negativa en la otra, con lo que habían logrado fabricar un amplificador de efecto de campo. El 20 de noviembre, escribieron la solicitud de patente. Por supuesto, quedaban muchos detalles por concretar. Shockley no intervo en el descubrimiento, estaba “en lo suyo”. Bardeen, teórico, trabajó mano a mano con Brattain (físico) y con Gibney (químico) en la parte experimental. Aunque la propuesta de Bardeen del 21 de noviembre todavía no presentaba el efecto amplificador deseado, contenía los elementos fundamentales del primer transistor.

Las mejoras al primer diseño de Bardeen fueron desarrolladas por él y Brattain, fundamentalmente. Los avances en el diseño fueron muy rápidos. Día a día el diseño iba mejorando con nuevas ideas. Uno de los cambios más importantes, en el que intervino Shockley, fue sustituir el silicio por germanio, sugerencia conjunta de Brattain y Shockley durante el almuerzo el 8 de diciembre. Gracias a ello lograron obtener el efecto de amplificación. El 10 de diciembre, habían logrado una ganancia en potencia de 6000 con un transistor muy similar a los actuales MOSFET. El primer transistor, que vemos en la foto, es del 16 de diciembre de 1947.

Shockley, en las navidades de 1947, se dió cuenta de la importancia del descubrimiento de Brattain y Bardeen, y se puso a trabajar duro y el lunes, 28 de diciembre, había diseñado el primer transistor bipolar. Citó por separado a Brattain y Bardeen para “que quedara clara” su participación en el descubrimiento. Kelly quería que todo se mantuviera en el más absoluto secreto (se rumoreaba que había un descubrimiento similar en Europa). El 30 de junio de 1948 se hizo público el dispositivo que ya tenía nombre: transistor. A partir de ese momento, Shockley, Brattain y Bardeen se convirtieron en “estrellas”, viajando por todo el país dando múltiples conferencias. Shockley estaba encantado en su papel de “estrella”. Brattain y, sobre todo, Bardeen estaban “hartos”. En 1950, Bardeen ya no quería trabajar en los mismos problemas que Shockley y empezó a darle vueltas al problema que le quitó el sueño antes de la Gran Guerra, la superconductividad. Pero esa es otra historia.

John Bardeen tiene el honor de ser el único científico que ha recibido 2 premios Nobel en Física por el descubrimiento del transistor y por su teoría de la superconductividad. Frederick Sanger ganó el Premio Nobel de Química en dos ocasiones en 1958 y 1980, Marie Curie ganó el de Física en 1903 y el de Química en 1911, y Linus Carl Pauling el de Química en 1954 y el Premio Nobel de la Paz en 1962. Merece la pena recordarlo este año que se cumplen 100 años de su nacimiento. La entrada de la wiki es breve pero efectiva. Su biografía más famosa es “TRUE GENIUS. THE LIFE AND SCIENCE OF JOHN BARDEEN. The Only Winner of Two Nobel Prizes in Physics,” Lillian Hoddeson y Vicki Daitch, Joseph Henry Press, Washington, 2002 .

John Bardeen bajaba despacio por el corredor del edificio de física, parecía perdido en sus pensamientos, era el 1 de noviembre de 1956, llevaba 5 años siendo catedrático de física en la University of Illinois, trataba de digerir la noticia que había recibido esa misma mañana: él y dos de sus colegas, William Shockley y Walter Brattain, habían ganado el Premio Nobel de Física por la invención del transistor en diciembre de 1947, cuando trabajaba en los Bell Telephone Laboratories.

La compañía telefónica Bell quería reemplazar los amplificadores basados en tubos de válvulas de vacío por algún nuevo dispositivo, más barato y con mayor proyección tecnológica. El líder del grupo de semiconductores, Shockley, tras la llegada de Bardeen a finales de 1945, le encargó que estudiara el porqué cierto diseño de amplificador basado en silicio no funcionaba. Schockley había diseñado dicho dispositivo varios meses antes utilizando las mejores teorías mecánico-cuánticas disponibles y según sus cálculos el dispositivo tenía que amplificar señales, sin embargo, no lo hacía. Bardeen encontró una explicación: los electrones eran confinados en las superficies de los materiales que formaban el dispositivo. Bardeen y Brattain estuvieron 2 años trabajando intensamente en el estudio de estos estados electrónicos superficiales con objeto de obtener su invención, el transistor. Shockely no intervino como tal en este invento. Sin embargo, supo aprovecharse de su situación de líder del grupo. Echó a Bardeen y Brattain de su grupo y se encargó de liderar el desarrollo de los transistores de segunda generación. Desde entonces, muchos creen que Shockley fue inventor del transistor, sin embargo, se limitó a ser “jefe”.

Al modesto Bardeen nunca le importó que Shockley asumiera el papel de “estrella de Hollywood” en el invento del transistor. De hecho, Bardeen nunca pensó que el transistor fuera un invento lo suficientemente importante como para recibir el Premio Nobel de Física. El nunca pensó que su invención fuera un avance científico de primera magnitud. De hecho, en 1956, el transistor todavía no había revolucionado las tecnologías de la información y las comunicaciones.

En 1956, la “cabeza” de Bardeen le daba vuelta a otros asuntos “más importantes”. Junto a un alumno postdoc, Leon Cooper, y a un alumno de doctorado, J. Robert Schrieffer, estaba involucrado en el desarrollo de una teoría para la superconductividad. Según Bardeen, su trabajo en esta teoría sí merecía un Premio Nobel en Física, ya que la superconductividad era el problema de la física del estado sólido más importante desde la década de los 1920. Bardeen llevaba trabajando en este problema desde finales de los 1930s. Unos meses después de que Bardeen regresara desde Estocolmo con su Nobel bajo el brazo, Bardeen, Cooper, y Schrieffer resolvieron el problema de la superconductividad, inventando la teoría llamada BCS en su honor. La teoría de Bardeen-Cooper-Schrieffer (BCS) de la superconductividad ha sido uno de los momentos cumbre de la física del siglo XX. Conceptos tan importantes como la ruptura espontánea de la simetría y la generación de masa asociada a ella (la razón por la que se busca el bosón de Higgs en el LHC del CERN) parten de la teoría BCS de la superconductividad.

La teoría BCS fue todo un triunfo para la física teórica, poder explicar la superconductividad descubierta en 1911, cuando los mejores teóricos del mundo, entre ellos Richard Feynman, Albert Einstein, Niels Bohr, Werner Heisenberg, Wolfgang Pauli, y Lev Landau, habían tratado de lograrlo infructuosamente. Felix Bloch llegó a decir “toda teoría de la superconductividad puede ser refutada,” ilustrando la gran frustación de todos los teóricos que atacaron dicho problema.

Cuando el comité Nobel premió en 1972 a Bardeen, Cooper, and Schrieffer con el Nobel de Física, era la primera vez que un físico recibía un segundo premio Nobel en el mismo campo. Bardeen cambió la física moderna tanto como Einstein, con dos invecciones de primera magnitud, y sin embargo, como tituló el periódico Chicago Tribune: “Para los científicos Bardeen es un Einstein. Para el público en general es un … ¿John qué?”.

¿Por qué el padre de la Era de la Información es un desconocido para el gran público? Quizás la culpa la tiene el propio Bardeen, el ejemplo perfecto del “genio modesto”.

La revista Microwave Journal celebra este año sus 50 años con una serie de artículos sobre la historia de su industria, las tecnologías de microondas, fundamentales, por ejemplo, para la comunicación mediante teléfonos móviles (celulares). Me ha gustado el artículo de James C. Rautio, “Twenty Three Years: The Acceptance of Maxwell’s Theory,” Microwave Journal, Vol. 51, No. 7, July 2008 .

En 1865, cuando la Guerra Civil Americana estaba acabando, Maxwell publicó “A Dynamical Theory of the Electromagnetic Field” en las Transactions de la Royal Society , Vol. CLV, un artículo que había presentado oralmente en diciembre de 1864. En su artículo afirmaba que “la luz y el magnetismo son resultado de la misma sustancia, y que la luz es una perturbación electromagnética que se propaga de acuerda con las leyes del electromagnetismo.” Obtuvo este resultado tras comparar varios valores que medían la velocidad de la luz, en concreto 314.858.000 m/s (M. Fizeau), 298.000.000 m/s (M. Foucault) y 308.000.000 m/s (por aberración estelar), con el resultado de sus cálculos teóricos.

Maxwell resolvió uno de los problemas más difíciles de la física, la naturaleza de la luz. Pero su descubrimiento necesitó 23 años para ser aceptado. ¿Por qué? Uno de los problemas de la teoría de Maxwell es que no ofrecía ningún modelo mecánico del “éter luminífero,” el medio en el que “supuestamente” se propagaban las ondas de luz, que eran transversales, sin vibración longitudinal. ¿Qué medio mecánico podía sostener este tipo de vibraciones? ¿Qué es lo que “realmente” modelaban las 20 ecuaciones diferenciales de Maxwell? Recuerda que la notación actual (4 ecuaciones vectoriales) es muy posterior a Maxwell, quien escribió sus ecuaciones componente a componente y en su versión “breve” basada en los cuaterniones de Hamilton.

Un físico actual encontraría dificultades a la hora de reconocer las 20 ecuaciones de Maxwell para el electromagnetismo. Para Maxwell, la magnitud fundamental era el “momento electromagnético” (cuya derivada en tiempo genera una fuerza) ya que trataba de formalizar el concepto de “estado electrotónico” de Faraday, por lo que introdujo el potencial vector magnético, al que bautizó con la letra A, como magnitud fundamental, siendo el campo magnético, letra B, una magnitud “secundaria”.

Maxwell murió en 1879 siendo famoso por sus contribuciones en termodinámica estadística (teoría molecular en la época) pero con muy poco reconocimiento por su teoría electromagnético. De hecho, él mismo no supo “vender” la gran importancia de dicha teoría (cuyas ecuaciones matemáticas eran extremadamente difíciles para la época). Tampoco dejó una escuela, alumnos o colegas, que continuaran su trabajo en esta materia. ¿Quién continuó el desarrollo del electromagnetismo? 2 días después de la muerte de Maxwell, la Royal Society envió a George Francis FitzGerald (del Trinity College de Dublín) la revisión por el propio Maxwell de un artículo suyo sobre el electromagnetismo.

Maxwell publicó una monografía científica sobre el electromagnetismo en 1873. En dicha monografía no trataba sobre la reflección o refracción de la luz. FitzGerald se estudió dicho libro con mucho detalle, encontrando analogías con un modelo para el éter desarrollado por MacCullagh (también del Trinity College de Dublín). Gracias a esta analogía, FitzGerald fue capaz de añadir a la teoría de Maxwell la teoría de la reflección y de la refracción de la luz. El problema del éter de MacCullagh (descubierto por Stokes) era que no conservaba el momento angular, con lo que los resultados de FitzGerald no fueron valorados en su justa medida.

En 1879, Oliver Lodge (del University College en Liverpool) amigo de FitzGerald y “amante” de la teoría de Maxwell, desarrolló un modelo mecánico de cómo se podría generar una onda electromagnética de luz: aplicando un voltaje a través de un conmutador que oscilara muy rápidamente. FitzGerald, tras un gran esfuerzo, encontró una solución de las ecuaciones de Maxwell para una corriente eléctrica que variara en el tiempo, pero su solución no presentaba radiación. De donde concluyó que era “imposible” generar ondas electromagnéticas de forma eléctrica. Lo que no vió FitzGerald es que se había equivocado en el tratamiento de la condición de contorno para el potencial vector. Este resultado hizo que la búsqueda experimental de la generación de ondas electromagnéticas mediante campos eléctricos se retrasara unos años.

El gran genio que revolucionó el electromagnetismo fue Oliver Heaviside. Un genio matemático en toda regla, que nunca fue a la universidad, y aprendió ciencia y matemáticas de forma autodidacta (leyendo libros de la biblioteca). Heaviside reescribió las ecuaciones de Maxwell en su forma moderna. Heaviside se “enamoró” del tratado de Maxwell cuando cayó en sus manos “calentito” de la imprenta, en 1873. En ella época Heaviside trabajaba como telegrafista. Uno de sus primeras grandes contribuciones fue derivar la ecuación del telegrafista (la que modela la propagación de señales eléctricas en cables) a partir de la teoría de Maxwell.

En el verano de 1884, Heaviside empezó a estudiar el flujo de energía en el campo electromagnético de Maxwell. Su demostración era muy complicada, pero el resultado extremadamente simple S=ExH (aunque este resultado fue publicado por Poynting, en Birmingham, unos meses antes). En manos de Heaviside este resultado era muy importante ya que indicaba que la energía electromagnética se propagaba a velocidad finita evitando la “acción a distancia” que muchos repudiaban en la teoría de Maxwell. Trabajando con el concepto de energía en el campo, Heaviside encontró una nueva manera de expresar las ecuaciones de Maxwell, en solo 4 ecuaciones diferenciales para la divergencia y el rotacional de cuatro campos E, H, D y B. Los potenciales escalar (eléctrico) y vectorial (magnético) fueron relegados a un segundo plano por Heaviside. ¿Por qué no se llaman ecuaciones de Heaviside? El propio autor nos da la respuesta, ya que en su publicación de las mismas afirma que estas “nuevas” ecuaciones deben llamarse “ecuaciones de Maxwell.”

En 1888 entran en esta historia los físicos alemanes. Hermann von Helmholtz le había pedido a Heinrich Hertz (uno de sus estudiantes en Berlín) que estudiara experimentalmente la validez de las teorías del electromagnetismo de Maxwell, Weber y Neumann (teorías diferentes “competidoras” en aquella época). Hertz publicó en 1888 en Annalen der Physik un artículo en el que estudiaba la descarga de un condensador a través de un bucle observando una condición de resonancia que le llevó a pensar que se generaban ondas electromagnéticas. Estudió la reflección, refracción, difracción, y polarización de la luz tanto en ondas no guiadas como en las guiadas en un cable. La presentación de Hertz en septiembre de 1888 ante la British Association (en Bath) lo elevó a “héroe”. Sus resultados confirmaban completamente la teoría del electromagnetismo de Maxwell. Maxwell, tras 23 años, era elevado al “cielo de los genios.”

Hertz descubrió, independientemente de Heaviside, la teoría de 4 ecuaciones vectoriales de Maxwell, pero siempre afirmó que la prioridad era de Heaviside y siguiéndole decidió llamar a “sus ecuaciones” con el nombre de ecuaciones de Maxwell. De hecho, en Alemania fueron llamadas durante muchos años ecuaciones de Hertz-Maxwell. Hertz recibió la prestigiosa Medalla Rumford de la Royal Society en 1890 por su trabajo (cuando ya era catedrático de física en Bonn).

En 1887, Michelson y Morley realizaron su famoso experimento interferométrico con el que se empezó a dudar de la existencia del éter. Pero la historia de la llegada de las ideas de Lorentz, Einstein y otros, quien observaron que las ecuaciones de Maxwell eran “invariantes relativistas” y requerían una nueva mecánica con la misma invarianza, “mecánica relativista,” es otra historia.