Premio Dirac 2016 a Seiberg, Shifman y Vainshtein

Por Francisco R. Villatoro, el 15 agosto, 2016. Categoría(s): Ciencia • Física • Matemáticas • Mathematics • Noticias • Personajes • Physics • Science ✎ 6

Dibujo20160809 2016 dirac medallist seiberg shifman vainshtein

Cada ocho de agosto, cumpleaños de P.A.M. Dirac, el Centro Internacional de Física Teórica (ICTP) concede las medallas Dirac a la física teórica. Este año lo han recibido Nathan Seiberg (Instituto de Estudio Avanzado, IAS, Princeton), Mikhail Shifman (Univ. Minnesota) y Arkady Vainsthein (Univ. Minnesota), por sus resultados exactos (no perturbativos) en teorías de campos supersimétricas. En ambos casos se destacan sus trabajos con otros físicos. El trabajo destacado de Seiberg lo realizó con Edward Witten (galardonado con el Premio Dirac en 1985) y los trabajos de Shifman y Vainsthein con Valentin I. Zakharov (los tres recibieron el premio J. J. Sakurai de la APS a la Física Teórica en el año 1999).

El anuncio oficial es «2016 Dirac Medallists Announced,» ICTP, 08 Aug 2016. El premio Dirac se concede desde el año 1985 (listado de los premiados). El ICTP fue fundado por Abdus Salam en Trieste, Italia, en el año 1964, siendo su director hasta 1993 (el premio Nobel de Física 1979 falleció en 1996).

ERRATA: en la primera versión de esta entrada confundí a Valentin I. Zakharov con Vladimir E. Zakharov (Dirac 2003). Craso error por mi parte.

Dibujo20160816-susy-n-equals-four

Explicar en detalle los logros que han sido galardonados es difícil, pues se trata de cuestiones físico-matemáticas muy técnicas. El modelo estándar de la física de partículas describe la realidad mediante campos cuánticos modelados por teorías de Yang–Mills que muestran simetrías de tipo gauge, como U(1), SU(2) y SU(3). Estas teorías son extremadamente complicadas y sólo sabemos trabajar bien con ellas en el régimen perturbativo (a energías en las que el acoplamiento es pequeño). Por ello, muchos fenómenos no perturbativos (que se observan cuando el acoplamiento es grande), como el confinamiento de los quarks o el problema del salto de masa, escapan a nuestro conocimiento actual. Hay indicios de estos fenómenos basados en teorías más sencillas que conducen a conjeturas firmes, pero aún no demostradas.

Hay varias vías para simplificar una teoría difícil, pero destacan dos de ellas. Podemos añadir nuevas simetrías (como las supersimetrías); una teoría más simétrica es más sencilla y permite realizar ciertos cálculos de forma exacta (gracias a que se cancelan entre sí ciertos efectos gracias a la simetría); las respuestas obtenidas con la teoría más simétrica permiten conjeturar las respuestas en la teoría original sin dicha simetría. Otro método muy usado en teoría de cuerdas es usar dualidades, diccionarios entre teorías muy diferentes entre sí que se usan para describir la misma realidad física; la dualidad es útil cuando ciertos cálculos en una teoría son sencillos, mientras son muy complicados en la otra; por desgracia la mayoría de las cosas interesantes suelen ser igual de complicadas de calcular en ambas teorías duales.

El premio Dirac 2016 ha sido concedido a trabajos que intentan entender el comportamiento de las teorías de Yang–Mills SU(3) y SU(Nc) en 3+1 dimensiones (4D) gracias a añadir cierto número de supersimetrías. Las teorías Yang–Mills supersimétricas (SYM) en 4D pueden incorporar N ≤ 4 supersimetrías, con lo que cada partícula tendrá N compañeras. Se suele considerar la teoría YM pura, sin materia; es decir, en el caso de la cromodinámica cuántica (QCD), que es una YM basada en SU(3), la versión pura no tiene quarks, solo gluones. Recuerda que el gluón es un bosón gauge (espín 1) que media la interacción fuerte vía la carga de color; hay ocho gluones (octete de color). La versión supersimétrica de una teoría YM pura, sea una SYM pura, con N supersimetrías, tendrá N gluinos por cada gluón; donde el gluino es un fermión de Majorana (espín 1/2). En 4D el número máximo de supersimetrías es N=4, luego hay teorías 4D SYM con N=1, 2 y 4.

Dibujo20160816 susy yang mills in the lattice bergner unibe ch

Una cuestión clave en una teoría YM es la renormalizabilidad, es decir, si se pueden ajustar los parámetros de la teoría para que los desarrollos perturbativos estén libres de infinitos. Estos desarrollos son asintóticos, es decir, no son convergentes, pero se pueden usar para hacer cálculos con precisión hasta cierto orden, a partir del cual divergen. El modelo estándar se basa en teorías renormalizables. Hoy en día se usan cálculos a bajo orden, como mucho N³LO, que ajustan muy bien las colisiones a alta energía en el LHC. Por desgracia, a baja energía estos cálculos son muy imprecisos y no permiten estimar cosas tan básicas como la masa de un pión o la de un protón. Para estimarlas hay que recurrir a métodos no perturbativos, métodos numéricos llamados QCD en el retículo (LQCD).

Las teorías SYM 4D N≤4 no son renormalizables según la teoría de perturbaciones. Sin embargo, son lo suficientemente sencillas como para permitir realizar ciertos cálculos no perturbativos, entre ellos, una demostración de su renormalizabilidad no perturbativa. Este tipo de renormalizabilidad permite calcular varias funciones asociadas a la teoría del grupo de renormalización (como la función beta que describe como cambia con la energía la constante de acoplamiento). Estos cálculos exactos son los que han sido premiados con el Premio Dirac 2016.

La importancia de calcular la función beta para una teoría SYM 4D N≤4 es que su expresión matemática se puede usar como guía para la correspondiente a la teoría YM 4D N≤4. Dicha expresión tiene el carácter de conjetura en dicha teoría, pero se puede confrontar con los resultados no perturbativos de las técnicas numéricas tipo LQCD. Los resultados numéricos apuntan a que dichas expresiones parecen correctas. De hecho, en muchos libros de física de partículas se usan estas expresiones matemáticas como si fueran exactas, cuando todavía son sólo conjeturas firmes.

No me quiero enrollar mucho más. El ruso Arkady Vainshtein (1942) y el letón Mikhail Shifman (1949) llevan colaborando juntos desde hace décadas. Se les ha premiado por el cálculo exacto de la función beta que describe la evolución de la constante de acoplamiento en teorías SYM en 4D. El cálculo aplica a teorías SYM puras con N=1, 2 y 4 supersimetrías. Este cálculo está en la base de los teoremas de no renormalización de teorías supersimétricas y de los teoremas de renormalización no perturbativa de dichas teorías.

Dibujo20160816 beta function from simulations with two and three flavors

La raíz última de estos teoremas matemáticos es que la relación entre los campos cuánticos supersimétricos y la constante de acoplamiento está descrita por funciones holomorfas. El físico isralelí Nathan Seiberg (1956) ha realizado importantes contribuciones en el uso de la holomorfia en teorías gauge supersiméricas. De hecho está considerado uno de los físicos teóricos más relevantes de la actualidad en el campo de la matemática-física, el uso de ideas y herramientas físicas para ayudar a la solución de problemas matemáticos (el famoso físico Witten recibió la Medalla Fields por trabajos en este campo). No se debe confundir con la física-matemática, donde se usan ideas y herramientas matemáticas para resolver problemas físicos.

En resumen, Seiberg, Shifman y Vainshtein han realizado importantes contribuciones para entender las teorías cuánticas de campos en el régimen no perturbativo. Su herramienta ha sido incorporar supersimetrías. Y su gran mérito ha sido aprovecharlas para obtener resultados exactos, algo imposible de soñar en teorías cuánticas de campos en el régimen perturbativo.



6 Comentarios

  1. Seiberg es un gran Físico 🙂 una gran elección premiarle.

    Algo curioso ocurre con las teorías gauge supersimétricas. Las teorías que tienen una función beta sencilla como SYM N=2 y N=4 d=4, esas teorías son profundamente interesantes para un Matemático, también entran este rubro las teorías topológicas como las Chern-Simons ambas interesan a Seiberg, ambas son poco interesantes para un Físico (soy subjetivo pues pues valen por ser un ejemplo de teorías bien comportadas en acoplo fuerte y útiles en materia condensada respectivamente) y recíprocamente las teorías «realistas» como N=1 y «pertubativamente interesantes» como N=8 d=4 (ambas con completaciones ultravioletas interesantes para los físicos) han sido poco interesantes para los matemáticos.

    Broma: Hay una especie de principio de incertidumbre sobre la función beta: Para una función beta interesante en acoplo fuerte a mayor interés Matemático y menor Físico y recíprocamente entre menos interesante sea la función beta más interesa al Físico y menos al Matemático XD

    Una posible explicación a esto es lo interesantemente diferente que abordan los Físicos y los Matemáticos la teoría cuántica de campos, a los físicos les interesa calcular secciones eficaces y construir teorías que deriven al modelo estándar como teoría efectiva, a los matemáticos les interesa usarlas como modelos para obtener invariantes para 3-variedades e incluso en geometría algebraica (como los invariantes de Gromov-Witten), esta forma de pensar es algo que inició Witten y algo en lo que Seiberg se volvió grande.

    Lo importante no son las teorías particulares, lo importante es que la QFT es un marco tan fascinante que sus particularidades son el paradigma dominante de la física moderna, es genial que se premie a Seiberg pues durante el pasado siglo pocas (¿ninguna?) veces la Física hizo tanto por las Matemáticas como la teoría del campo hacia el final del siglo.

    Este post de Lubos Molt es muy interesante sobre lo poco importante que es para el físico práctico tener una QFT bien fundada http://motls.blogspot.com/2010/11/quantum-field-theory-has-no-problems.html

    Aquí una discusión muy iluminadora sobre el teorema de Hagg y su poca o nula relevancia para la física http://physics.stackexchange.com/questions/3983/haags-theorem-and-practical-qft-computations

  2. Dos preguntas: 1. ¿Por qué parace tán difícil hacer estos cálculos matemáticos incluso a los matemáticos? ¿No usan ‘reglas’ matemáticas conocidas? ¿No usan supercomputadoras?
    2. Las vías para simplificar una teoría difícil, ¿no invalidan luego el resultado cualquiera que sea? Quiero decir, ¿hasta qué punto es légitimo aplicar los resultados de la teoría ‘fácil’ a la teoría ‘difícil’?

    1. Pregunta 1: Gabriel, porque los matemáticos sólo saben resolver ecuaciones triviales desde un punto de vista físico (problemas lineales o que se pueden linealizar). Problemas tan sencillos como el problema de los tres cuerpos son imposibles de resolver (recuerda el concepto de caos determinista o de caos hamiltoniano). Un protón en QCD es un problmea multicuerpo (con millones de cuerpos).

      ¿Por qué no usar supercomputadores? En física de fluidos el problema es sencillo, las ecuaciones con clásicas. Pero en QCD las ecuaciones son cuánticas y no se pueden simular de forma eficiente sistemas cuánticos en ordenadores clásicos (se requieren ordenadores cuánticos, que aún no tenemos). Por ello Lattice QCD tiene muchas limitaciones prácticas; añadir potencia de cálculo clásica supone ganar muy poco, p. ej. pasar de petaflops (hace 5 años) a exaflops (ahora) no aporta mucho. En la segunda mitad del siglo XXI deberían existir pequeños ordenadores cuánticos que actúen como oráculos de los superordenadores clásicos (más allá de los exaflops, quizás zettaflops o incluso yottaflops); gracias a ellos las simulaciones LQCD deberían ser capaces de obtener resultados comparables a los experimentos con colisionadores.

      Pregunta 2: Gabriel, el trabajo del físico matemático, desde la época de Newton hasta ahora, consiste en modelar la realidad, que es muy complicada, con modelos simples, que permitan entenderla. Calcular las propiedades de un sistema al 90% es mucho más fácil que hacerlo al 95%, o que hacerlo al 99%, e incluso puede llegar a ser imposible entender más allá por indeterminaciones intrínsecas. Por ello, la labor de los físicos es entender lo complicado usando lo sencillo. No es fácil, pero es su trabajo. Su legítimo trabajo.

      Saludos
      Francis

  3. Cuando Francis habla del problema de varios cuerpos en QCD es porque la estructura complicada del protón se puede aproximar por la dinámica de sus tres quarks de valencia uud, pero en realidad es muy complicado y sus tres quarks de valencia son una contribución pequeña a su masa, a esta contribuyen también la energía cinética de los gluones que intercambian sus quarks de valencia y virtuales, la anomalía de traza etc.

    Un post de Francis al respecto:
    https://francis.naukas.com/2012/04/30/la-masa-de-un-proton-la-masa-de-sus-quarks-y-la-energia-cinetica-de-sus-gluones/

    Aquí otra interesante en particlebites: http://www.particlebites.com/?p=3063

Deja un comentario