Podcast CB SyR 424: Strings 2023, Muon g−2 (Fermilab), LK-99 y la constante de Hubble con gravitondas

Por Francisco R. Villatoro, el 11 agosto, 2023. Categoría(s): Ciencia • Física • Noticias • Physics • Podcast Coffee Break: Señal y Ruido • Recomendación • Science ✎ 16

He participado en el episodio 424 del podcast Coffee Break: Señal y Ruido [iVoox AiVoox BiTunes A y iTunes B], titulado “Ep424: Cuerdas 2023; Muón g−2; Gravitondas y Cosmología; Superconductor», 10 ago 2023. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. En el episodio de hoy: Cara A: Resumen de Strings 2023, la conferencia sobre teoría de cuerdas (min 5:00). Cara B: Gravitondas para resolver la tensión de la constante de Hubble (min 1:00); Anuncio del experimento Muón g-2 de Fermilab que desafía el modelo estándar (43:00); Actualización sobre el posible superconductor LK-99 (1:12:00); Señales de los oyentes (1:29:00). Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».

¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937); ya sois 69 (muchas gracias). Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!

Descargar el episodio 424 A.

Descargar el episodio 424 B.

Como muestra el vídeo participamos por videoconferencia Héctor Socas Navarro @HSocasNavarro (@pCoffeeBreak), Isabel Cordero @FuturaConjetura, José Edelstein, @JoseEdelstein, Gastón Giribet @GastonGiribet, y Francis Villatoro @eMuleNews.

Realizamos un resumen de la conferencia científica Strings 2023, celebrada entre el 24 y el 29 de julio de 2023 en el Instituto Perimétrico de Física Teórica (Perimeter Institute for Theoretical Physics) en Waterloo, Canadá (fundado en 1999). La página web de la conferencia es https://events.perimeterinstitute.ca/event/29/; las charlas en vídeo (con las presentaciones en PDF extraídas del vídeo, algunas incompletas) están en https://pirsa.org/C23001. Isabel nos cuenta de forma breve su agradable paso por el Perimeter. Gastón, a petición de Héctor, resume la historia de la teoría de cuerdas desde 1967, pasando por la primera revolución de 1984 y la segunda revolución de 1995. Nos describe la diferencia entre el paisaje (landscape) de vacíos de la teoría de cuerdas y el pantano (swampland) de vacíos ficticios más allá de la teoría de cuerdas.

Como todos los años, yo he visto todas las charlas (mis tuits sobre ellas). La charla divulgativa de este año ha sido de Juan Maldacena (IAS), «The Meaning of Spacetime: Blackholes, wormholes and quantum entanglement», Strings 2023, 27 Jul 2023 [pirsa,indico]; para público general, presenta el principio holográfico (la dualidad AdS/CFT) aplicada al problema de información de los agujeros negros, y como posible camino hacia la naturaleza cuántica de la gravitación; me parece una charla muy recomendable, decorada con metáforas que serán atractivas a muchos lectores de este blog.

Ha habido cuatro charlas de tipo reto para el futuro (Challenge Talks). La charla que más me ha gustado ha sido la de John Preskill (Caltech), «Learning in a quantum world», 27 Jul 2023 [pirsa,indico], que incluso nos canta «La Maldacena» de Strings 2008; el tema de su charla son los algoritmos cuánticos de corrección de errores aplicados a entender la física de la gravitación cuántica. También me ha gustado mucho la del gran divulgador matemático Edward Frenkel, «Feynman’s Last Blackboard: From Bethe Ansatz to Langlands Duality», 25 Jul 2023 [pirsa,indico], de ejecución casi perfecta, todo un placer (a pesar de que es muy técnica); el tema es la correspondencia de Langlands y su potencial en gravitación cuántica (vía la teoría de cuerdas). Me gustaron menos, aunque eran sobre temas muy interesantes, las charlas de Savas Dimopoulos (PI), «The Cosmic Neutrino Background: Its distribution on the surface of the Earth and its manipulation on laboratory scales,» 24 Jul 2023 [pirsa], sobre el fondo cósmico de neutrinos, y de Xiao-Gang Wen, «Symmetry/Topological-Order correspondence —from string theory to condensed matter physics,» 26 Jul 2023 [pirsa,indico], sobre el uso potencial de la teoría de cuerdas en física de la materia condensada y en materiales topológicos (un tema que me apasiona, pero que no me gusta cómo se presenta en esta charla).

Entre las charlas normales me han gustado muchas, pero quisiera destacar la de Grant Remmen, «Bespoke Dual Resonance,» 26 Jul 2023 [pirsa,indico]. La amplitud de Veneziano permite explicar las trayectorias rectas de Regge (que se observan para los hadrones) y su explicación fue el origen de la teoría de cuerdas; Remmen nos comenta que se puede generalizar dicha amplitud para describir distribuciones arbitrarias de polos de Regge, manteniendo muchas (pero no todas) las propiedades de la propuesta de Veneziano; lo más curioso es que no se sabe qué objeto está descrito por dicha amplitud, ni siquiera si dicho existe, pero en su caso sería algo como una «cuasi-cuerda» (lo que podría ser fascinante). [PS 12 ago 2023] El artículo divulgado en dicha charla es Clifford Cheung, Grant N. Remmen, «Bespoke Dual Resonance,» arXiv:2308.03833 [hep-th] (07 Aug 2023), doi: https://doi.org/10.48550/arXiv.2308.03833. [/PS] También las charlas de los geniales Nathan Seiberg (IAS), «Emanant symmetries,» 25 Jul 2023 [pirsa,indico], sobre lo que el bautiza como simetrías emanadas, y Edward Witten, «A Background Independent Algebra in Quantum Gravity,» 28 Jul 2023 [pirsa,indico], sobre las álgebras de observables asociadas a sus trayectorias espaciotemporales.

Las únicas charlas próximas a la fenomenología en teoría de cuerdas (que este año parece recluida a la conferencia String Pheno ’23 [indico]) son las de conjeturas del pantano de Cumrun Vafa (Harvard Univ.), «Swampland and a Unification of the Dark Sector,» 24 Jul 2023 [pirsa,indico], que propone chequear los modos de Kaluza-Klein con un experimento llamado ISLE que explorará la gravitación por debajo de 10 μm, y la charla de Irene Valenzuela, «A universal pattern at infinite field distance,» 24 Jul 2023 [pirsa]. Gastón recomienda las charlas de Andrew Strominger, «Cosmic ER=EPR,» 24 Jul 2023 [pirsa], de Witten y de Ashoke Sen, «Revisiting logarithmic corrections to supersymmetric black hole entropy,» 25 Jul 2023 [pirsa,indico]. Finalmente, y en relación a los comentarios de Jose sobre por qué no asistió a este Strings 2023, me gustaría destacar que el próximo Strings 2024 será en el CERN (Ginebra, Suiza) y el Strings 2025 en Abu Dhabi (Emiratos Árabes Unidos).

Nos cuenta Jose un artículo sobre la estimación de la constante de Hubble (H₀) con gravitondas de la fusión de agujeros negros con estrellas de neutrones. Nos resume la historia de esta constante y la reciente discrepancia entre la medida astrofísica con la escalera de distancias y la medida cosmológica a partir del fondo cósmico de microondas (por la que uno de los coautores del artículo, George F. Smoot, recibió el Premio Nobel de Física de 2006, en concreto, por su trabajo en COBE y el fondo cósmico de microondas). El 17 de agosto de 2017, LIGO-Virgo detectaron la onda gravitacional GW170817 asociada a la fusión de dos estrellas de neutrones (BNS). Isabel (miembro de Virgo) nos cuenta una anécdota sobre dicha detección. Jose continúa, las BNS permiten estimar la constante de Hubble si se observa una contraparte electromagnética (kilonova); por desgracia, no se ha observado contraparte para ninguna para otras BNS.

El nuevo artículo de Smoot y dos colegas propone usar fusiones de estrella de neutrones y agujeros negros (NSBH) para estimar la constante de Hubble (así se evita la necesidad de la contraparte electromagnética); gracias a que la masa de las estrellas de neutrones varía en un rango pequeño, proponen usar una correlación estadística para estimar la relación entre la luminosidad de la onda gravitacional y el desplazamiento al rojo (z) de la galaxia donde se encuentra su fuente. Así, gracias a dos BNS confirmadas, las ondas gravitacionales GW190426 y GW200115, se puede estimar H₀ = 86+55−46 km/s/Mpc. Cuando se observen diez de estos eventos el error se podría reducir a un 20 % (lo que estaría al alcance en un par de años). Por supuesto, la estimación de H₀ obtenida es muy pobre (comparada con otras estimaciones), pero la técnica es muy prometedora (pues se esperan muchos BNS en los próximos años). El artículo es Leo W.H. Fung, Tom Broadhurst, George F. Smoot, «Pure Gravitational Wave Estimation of Hubble’s Constant using Neutron Star-Black Hole Mergers,» arXiv:2308.02440 [astro-ph.CO] (04 Aug 2023), doi: https://doi.org/10.48550/arXiv.2308.02440.

Me toca comentar los nuevos resultados del experimento Muon g−2 del Fermilab, que se anunciaron en directo durante la grabación del programa (entre las 17:00 y 18:00 horas peninsulares). El nuevo resultado difiere de la predicción teórica de consenso del modelo estándar en 5.1 sigmas (de significación estadística en contra de la hipótesis nula). Pero desde Muon g−2 prefieren destacar que la nueva medida es muy precisa (0.19 ppm) y omitir cualquier mención al descubrimiento de una discrepancia con el modelo estándar. La razón es que hay dos métodos para estimar la predicción teórica y dichos métodos discrepan entre sí (para uno habría 5.1 sigmas, pero para el otro habría unas 2 sigmas). La cuestión está abierta. Habrá que esperar y lo comentaremos en el podcast cuando haya nueva información relevante.

Te recomiendo disfrutar de este vídeo del seminario en el que se presentó el nuevo resultado; sobre todo si te interesa saber cómo funciona el experimento Muon g−2. Además, te recomiendo leer mi breve pieza «Muon g−2 del Fermilab incrementa a 5.1 sigmas su (supuesta) desviación en el momento magnético anómalo del muón», LCMF, 10 ago 2023; El nuevo artículo es The Muon g−2 Collaboration, «Measurement of the Positive Muon Anomalous Magnetic Moment to 0.20 ppm,» Fermilab, 10 ago 2023 [PDF] (aparecerá en arXiv el próximo lunes).

Me toca contar el estado actual (tras una semana) del material de moda, LK-99, que ya sabemos que es semiconductor a temperatura ambiente (en lugar de un supuesto superconductor). Más o menos estamos igual que la semana pasada, salvo que todo apunta a que es un material irrelevante (su posible estructura electrónica con bandas planas podría un artefacto de la estructura cristalina propuesta por los coreanos, que parece que no es la correcta). Resumo las siguientes piezas de este blog (que te recomiendo leer si te interesa el tema): «Novedades sobre la estructura cristalina del semiconductor LK-99 que afectan a los modelos teóricos», LCMF, 10 ago 2023; «Posible explicación de la caída de resistencia en LK-99 observada por los coreanos como supuesta superconductividad», LCMF, 09 ago 2023; y «Nuevos resultados en contra de la superconductividad ambiental de LK-99», LCMF, 08 ago 2023. El culebrón del verano continúa.

Y pasamos a Señales de los Oyentes. Servicios Rosario me pregunta: «Francis, ¿podrías comentar acerca de las propiedades del gravitón y su relación con el espaciotiempo de la teoría de la relatividad? ¿Y por qué se dan infinitos al cuantizarla?» La respuesta a la primera pregunta es que no lo sabemos. Me enrollo comentando lo poco que sabemos; la versión cuántica de la relatividad describe una partícula de espín dos, el gravitón; además, si se parte de un gravitón en un espatiotiempo plano, como la energía curva el espaciotiempo, el gravitón curva el espaciotiempo que modifica el gravitón y así sucesivamente; el resultado es que se obtiene la teoría general de la relativdiad. Ahora bien, no sabemos calcular lo que pasa cuando hay muchos gravitones (aparecen infinitos, porque la teoría aparenta ser no renormalizable con las técnicas matemáticas conocidas). La opinión de muchos físicos es que el espaciotiempo debería estar hecho de gravitones, pero no sabemos si es un gas de gravitones, o un líquido, o un sólido, o un estado condensado de Bose-Einstein, o un superfluido, o un supersólido, o lo que sea; no sabemos describir el espaciotiempo como resultado de infinitos gravitones en interacción mutua. Recomiendo la lectura de Assaf Shomer, «A pedagogical explanation for the non-renormalizability of gravity,» arXiv:0709.3555 [hep-th] (22 Sep 2007), doi: https://doi.org/10.48550/arXiv.0709.3555.

Nadie sabe contestar con rigor a las preguntas realizadas. Se necesita recurrir a una futura teoría cuántica de la gravitación, que aún no disponemos. Solo disponemos de un candidato, la teoría de cuerdas. Jose es experto en las correcciones que la teoría de cuerdas introduce en la teoría general de la relatividad (aparecen infinitos térmicos que dependen de potencias de la curvatura). Nos comenta que hay muchas aproximaciones para la interacción entre los gravitones, algunas específicas de la teoría de cuerdas. Pero tienen problemas, pues estas correcciones conllevan violaciones de la causalidad y otros efectos no deseados (menciona los adelantos de Shapiro, una especie de eco superlumínico de señales). No sabemos cómo resolver estos problemas (quizás hay que restringir cómo se acoplan los gravitones y el espaciotiempo en teoría de cuerdas). Debo recomendar el artículo de Jose que cita en su respuesta: Causality Constraints on Corrections to the Graviton Three-Point Coupling,» Journal of High Energy Physics (JHEP) 2016: 20 (03 Feb 2016), doi: https://doi.org/10.1007/JHEP02(2016)020, arXiv:1407.5597 [hep-th] (21 Jul 2014).

Cristina Hernandez García​ pregunta: ¿Por qué la realidad es modelable, cognoscible, etc., y por tanto respeta la identidad y la no contradicción sobre la que se sostienen los lenguajes lógico-matemáticos formales? ¿Y el rurial de wol?» No entendemos la segunda pregunta. Mis contertulios no se atreven con la primera. Respondo que en matemáticas lo cognoscible o comprensible está asociado a lo demostrable; los teoremas de Gödel muestran que hay infinitas verdades que no se pueden demostrar en todo sistema axiomático capaz de describir preguntas sobre sí mismo. En su momento fue algo inesperado e inconcebible (todo el mundo pensaba lo contrario). Lo mismo podría ocurrir en física o incluso en biología. Ahora mismo, en física, química y biología se asume que la realidad es cognoscible, comprensible y modelable (esto último con el lenguaje de las matemáticas). Parece inconcebible que no lo sea (como pasaba en matemáticas). Pero podría ocurrir que la realidad no fuera cognoscible y comprensible, que hubiera un teorema similar a los de Gödel que afectara a la física o a la biología (de hecho, ya hay varias propuestas, pero son demasiado especulativas). Quizás la realidad contiene un núcleo que no es cognoscible, ni comprensible, ni modelable; pero a día de hoy no sabemos si existe. Como decía Wigner, la efectividad de las matemáticas para describir la Naturaleza es todo un milagro (Eugene P. Wigner, «The Unreasonable Effectiveness of Mathematics in the Natural Sciences,» Commun. Pure Appl. Math. 8: 1-14 (1960), doi: https://doi.org/10.1142/9789814503488_0018.

Cebra pregunta: «Un toro en 3D con su agujerito, ¿es simplemente conexo?» La respuesta es no. La esfera es simplemente conexa porque toda curva cerrada en su superficie se puede contraer a un punto en dicha superficie. Pero en el toro hay curvas que circulan el agujero que no se pueden contraer a un punto (esta es la definición de agujero). Así que el toro no es simplemente conexo, ni en 3D, ni en ningún otra dimensión superior (Tⁿ = S¹×S¹×⋯×S¹  (n factores), cuyo grupo fundamental de homotopía es π₁(Tⁿ) ≅ Zⁿ, cuando un espacio simplemente conexo, como las esferas Sⁿ, tiene un grupo fundamental trivial, π₁(Sⁿ) ≅ 1).

Teresa Hernández​ pregunta: «¿Cuál sería el significado (si lo hay), de que el valor de Ho sea mayor o menor?» Contesta Héctor que si la medida local (z < 0.01) del valor de H0 y el valor estimado a partir del modelo cosmológico (a partir de z = 1100) difieren entre sí, entonces o bien hay un problema en la medida local, o bien hay un problema en el modelo cosmológico. En este último sería necesario añadir algo al modelo para explicar la discrepancia. Apostillo que lo más obvio sería que la energía oscura no es la constante cosmológica sino resultado de la dinámica de algún campo físico nuevo. Hay muchas propuestas.

¡Qué disfrutes del podcast!



16 Comentarios

  1. Otro programa estupendo. Muchas gracias.

    Supongo que Cristina Hernandez se refería al ruliad de Wolfram, pero tampoco entiendo la pregunta.

    Sobre la irrazonable efectividad de las matemáticas, una charla Carlos Madrid:
    Lección inaugural del Congreso Internacional de Matemática CIMa Virtual 2021
    https://www.youtube.com/watch?v=QmRLSlnQNjQ
    (Se oye fatal. Si interesa, es preferible descargarla y escucharla en mono).

    Vi la charla divulgativa de Maldacena en el Perimeter, cuando la recomendaste en Twitter. Efectivamente es muy báśica pero, para un lego como yo, viene bien. La segunda mitad me ayudó a entender un poco mejor la propuesta de Thomas Hertog en «On the origin of time», donde desarrolla el último artículo de Hawking (también lo trató hace cinco años Enrique Fernández Borja, aquí en Naukas. https://naukas.com/?s=Hertog).

    1. Masgüel, el Ruliad de Wolfram es una chorrada, un nombre para un concepto sin definición ni contenido alguno. Stephen Wolfram, «The Concept of the Ruliad,» 10 Nov 2021, es un texto sin contenido, un ejercicio literario de pseudomatemática. Soy gran admirador del genio de Wolfram, pero cuando abusa de su prestigio para escribir chorradas creo que debe ser sincero y dejarlo claro: una chorrada.

      Recuerda que Wolfram está por encima del bien y del mal. Puede decir y hacer lo que quiera. Sus butades son muy cansinas.

      1. Supongo que Cristina lo mencionaba porque Wolfram asume que todo en el universo es computable o incluso que todo es un cómputo. Curiosamente, lo que Wolfram hace con el Ruliad (the result of following all possible computational rules in all possible ways), es lo que Hertog, usando una expresión de Hawking, intenta negar en su libro.

        Dice Wolfram: «…if the ruliad and its structure is a matter of formal necessity, doesn’t that mean that the whole ruliad effectively already exists—outside of time?. Well, in some sense it does. But ultimately that would only be relevant to us if we could look at the ruliad from the outside”.

        Dice Hertog: «Cosmological theorizing had better account for our existence within the universe. The evident fact that we live on a planet in the Milky Way galaxy, surrounded by stars and other galaxies and immersed in the faint glow of the microwave background, means that we necessarily have an “inside-out” perspective on the cosmos. Stephen (Hawking) called this a worm’s-eye viewpoint*. Could it be that, paradoxical as it might seem, we must learn to live with that subtle element of subjectivity inherent in a worm’s-eye view in order to attain a higher level of understanding in cosmology? (…) The later Hawking propounded that down at the bottom, it isn’t a matter of why the world is the way it is —its fundamental nature dictated by a transcendental cause— but of how we got where we are. From this viewpoint, the observation that the universe happens to be just right for life is the starting point for everything else. Interlinking not just gravity and quantum mechanics —the large and the small— but also dynamics and boundary conditions, as well as man’s worm’s-eye perspective on the cosmos, the top-down triptych offers a remarkable synthesis that weans cosmology off the Archimedean point at last.»
        * Contra el God’s-eye viewpoint que implica el eternalismo.

  2. No logré entender mucho pero me llamo la atención la diapositiva 17 donde da 4 metodos de LQCD para la HVP, me pregunto que si podrías dar una idea breve a que van los métodos de staggered, Wilson, domain wall y twisted mass.

    Sobre la estimación de Hubble porque los BNS necesitan un contraparte electromagnética pero no los NSBH para la estimación de H0?

    1. Me falto preguntar si harias un post sobre las ultimas noticias del NIF en fusión como no he visto ninguno hasta ahora supongo que carece de importancia pero siempre logro aprender un poco cuando desmenuzas los resultados. Gracias y saludos

      1. No hay mucho que contar sobre el NIF, Dabed, han repetido su éxito anterior (les ha costado repetirlo más de lo esperado), pero no han publicado ningún detalle de lo que han obtenido (supongo que acabarán apareciendo los detalles en alguna publicación futura, que quizás aparezca cuando lo repitan más veces).

        1. Francis, cuando comentaban que el Muón por ser más masivo consigue energizar mejor al campo electromagnético ; recordé la noticia de un experimento donde se lleva éstas partículas a velocidades relativistas y consiguen excitar el vacío del campo electromagnético desde donde emergen pares de partículas y antipartículas que consiguen hacerse reales . Es posible ésto?

          1. Noam, que un muón de alta energía excite el vacío y produzca la emisión de un par electrón-positrón (o de un par muón-antimuón) no es posible (lo prohíbe la conservación de la energía y del momento lineal). ¿Dónde lo has leído?

          2. Francis, disculpa, me expresé mal claramente . En el fondo y para partir con lo más simple me interesa saber cómo una partícula energizada que vuelve a su estado de menor energía se libera de ésta en forma de fotones . Gracias por tu respuesta.

          3. Noam, no sé qué llamas «partícula energizada» y qué llamas «estado de menor energía», pues estos conceptos solo se aplican a sistemas compuestos (átomos y partículas como los hadrones); para las partículas fundamentales tu pregunta carece de sentido. Quizás tu pregunta es, cómo decae una partícula inestable. En física cuántica lo que puede ocurrir ocurrirá; si una partícula puede decaer en otras partículas acabará decayendo (la probabilidad de cada uno de los canales (o modos) de decaimiento dependerá de los acoplamientos mutuos entre las partículas implicadas). Un tauón (tercera generación) o un muón (segunda generación) decaen, pero un electrón (primera generación) no decae; la razón es que el electrón no puede decaer en nada, por ello es estable.

            Por ejemplo, cómo decae un tauón; lo hace gracias a la interacción electrodébil (pues no tiene carga de color y no puede hacerlo por vía hadrónica), por ello decae en un neutrino tau y un bosón W, que a su vez también decae. Los canales de desintegración más probables son los siguientes: el 65 % de las veces el tauón decae en un neutrino tau y un bosón W que decae en un par quark-antiquark, que genera chorros hadrónicos formados por uno o varios mesones (lo más probable son piones, pero también pueden ser kaones, etc.); el 18 % en un neutrino tau y un bosón W, que decae en un antineutrino electrónico y un electrón, y el 17 % en un neutrino tau y un bosón W, que decae en un antineutrino muónico y un muón.

            Otro ejemplo, cómo decae un muón; lo hace gracias a la interacción electrodébil (por la misma razón que antes), por ello decae en un neutrino tau y un bosón W, que a su vez también decae; este W solo puede decaer en un antineutrino electrónico y un electrón, porque la vía hadrónica está prohibida ya que la masa del pión es mayor que la del muón (y un decaimiento está prohibido si no puede ocurrir en el sistema de referencia en el que la partícula está en reposo y toda su energía es masa).

            No sé si esto aclara tus dudas, pero todo esto es física de partículas elemental. Hasta los libros más elementales sobre física de partículas discuten todo esto en detalle. Te recomiendo profundizar si te interesa el tema.

    2. Dabed, en LQCD usa diferentes métodos numéricos para tratar los fermiones (quarks) a la hora de resolver las ecuaciones asociadas a los campos de quarks y gluones en una malla espaciotemporal discreta (sea a el parámetro espacial de la malla). Estos son como trucos numéricos con sus inconvenientes y sus ventajas, yo no soy experto en LQCD, así que no te puedo contar muchos detalles (en arXiv tienes muchos artículos de revisión que te explican estos métodos en detalle y te los comparan entre sí). Permíteme un resumen breve para ir abriendo boca.

      El método de «staggered» es un método similar al usado en electromagnetismo computacional con los campos eléctricos y magnéticos (uno en los vértices y otro en los centros de las caras), pero aquí se usa para el espín de los quarks (una componente del espín en los vértices y la otra en los centros de las caras); esto equivale a una malla a/2, lo que reduce el coste computacional, pero rompe con la simetría quiral en la malla, luego hay que aplicar el límite continuo a→0 para recuperarla (se aplica una extrapolación).

      El método de «Wilson» añade un término cuadrático a la ecuación de Dirac para los quarks que regulariza dicha ecuación y mejora el comportamiento del método numérico; dicho término también rompe la simetría quiral, que se restaurará en el límite continuo a→0 (también se aplica una extrapolación).

      El método «domain wall» es muy curioso, se introduce una quinta dimensión espacial colocando los quarks en el contorno cuatridimensional de dicha quinta dimensión, lo que facilita mantener la simetría quiral durante toda la simulación. Una ventaja suficiente para compensar el altísimo costo computacional de añadir una dimensión.

      Y el método «twisted mass» introduce un término de masa en la ecuación para los quarks que rompe con la simetría quiral y que introduce un ángulo (twist angle) que se puede ajustar para mejorar el comportamiento de los errores del método numérico.

      Lo relevante es que son diferentes métodos numéricos que deberían dar resultados diferentes pero equivalentes, lo que refuerza la confianza en las conclusiones extraídas de ellos.

      1. Te agradezco por tomarte el tiempo y esfuerzo, espero no tener más preguntas por un buen tiempo para no hacerte perder el tiempo pero esta valió totalmente la pena aprendí un montón, muchísimas gracias.

  3. %%
    TL;DR: Hola Francis. Gracias por tomarte el tiempo de leerme. Si no tienes tiempo, siéntete libre de ir directamente a las preguntas (al final). Sé que el comentario es un poco largo, pero creo que aporta un buen contexto.
    %%

    Intentaré hacerte perder el menor tiempo posible. Sé que actualmente esto quizás no aporta mucho desde el punto de vista estrictamente científico o técnico del consenso actual. Pero creo que a muchos nos interesa tu opinión sobre el papel de la Matemática y la Física en nuestra búsqueda de la comprensión de la realidad.

    Permíteme reformular desde el punto de vista de la fundamentación matemática y Filosofía de la Ciencia, algunos puntos de tu respuesta a Cristina (y añadir algunas sospechas) para estar seguro de que entiendo tu postura y proporcionar mejor contexto para mis preguntas.

    PARTE 1 – Lo que interpreto tras la intervención:
    Desde el punto de vista de la fundamentación matemática y Filosofía de la Ciencia, creo que has expuesto dos escenarios diferenciados por su utilidad (disculpa y corrígeme si en algún momento deduzco cosas erróneas de tus palabras). De tu intervención interpreto que distingues:

    Escenario 1: Sólo queremos modelar. Nos da igual cómo sea la Realidad última. Nos interesa la UTILIDAD de las herramientas de modelado, no la metafísica.
    1.1. Asumimos que hay una realidad cognoscible para nosotros.
    1.2. La Matemática no tiene por qué estar en el núcleo de la realidad. Puede ser sólo un lenguaje humano formal y vacío (de contenido) para hablar de los (supuestos) elementos y procesos de la Realidad. La Matemática no tiene por qué ser una ciencia natural/experimental.
    1.3. La Física como disciplina, consiste en modelar y explicar los fenómenos accesibles al humano. Para ello, se apoya en la matemática previa y dota a los objetos matemáticos de sentido físico. Es decir, inyecta significados concretos a los objetos de ese lenguaje. Los objetos y procesos descritos en Física puede que sí estén en el núcleo de la realidad última, o quizás no. Los mecanismos de realidad subyacente podrían ser otros.
    1.4. La Realidad podría tener una naturaleza propia (que no sea físico-matemática). Pero nos da igual. Sólo queremos modelarla para hacer predicciones y desarrollarnos.
    1.5. Nos da igual que exista un pluralismo matemático (estilo Charles Peirce) o lógico. Sólo nos interesa la utilidad del método.

    Escenario 2 (en mi opinión aquí empieza un viaje inútil para la Ciencia de hoy en día): Nos importa no sólo la utilidad, sino la metafísica de la Realidad. Queremos identificar los mecanismos que usa la realidad.
    2.1 De alguna forma habría que demostrar qué elementos o procesos usa el núcleo de la Realidad.
    2.2 La Realidad podría usar lógica acoplada a elementos físicos o quizás otra cosa totalmente distinta. Asumamos que usa Lógica de la que nacen matemáticas.
    2.3 La Matemática (o parte de ella) ya no sería sólo sólo nuestro lenguaje. También pasaría a ser una lógica que «vive» en la Realidad.
    2.4 Evidentemente todo esto se puede ver invalidado por un núcleo de Realidad no cognoscible para nosotros.

    PARTE 2 – Algunas consecuencias de los escenarios desde la fundamentación matemática y Filosofía de la Ciencia:
    – El primer escenario, creo que representa el paradigma actual. Tiene una visión formalista de la matemática. Es decir, la concebimos como manipulación de símbolos, axiomas y reglas de formación (sintaxis), donde los axiomas son arbitrarios y no tienen valor de verdad por sí mismos (como en Teoría de Modelos). Estas son básicamente las propuestas del programa de Hilbert, de las cuales, posteriormente, se han derivado softwares de asistencia de demostración.

    – El segundo representa un caso más próximo al proyecto logicista (Russell y compañía). Ya que la Lógica o Matemática empleada podría ser «verdadera», ser Realidad. Y no sólo un lenguaje o marco para modelar la Realidad. Por lo que los axiomas lógicos pasarían a tener valor de verdad que deberían ser corroborados en la práctica. (Como si fuera Física actual). Este segundo escenario, creo que comenzaría a estudiarse si hubiera alguna crisis que hiciera modificar el paradigma físico-matemático. Pero ahora es demasiado especulativo y sin sentido dentro del marco actual.

    PARTE 3 – PREGUNTAS:
    1. ¿Es el escenario uno un buen resumen de cómo ve la comunidad de físicos y matemáticos la relación actual entre Realidad, Matemáticas y Física?

    2. En cuanto a Gödel, mencionas que los teoremas de incompletitud podrían tener un análogo en Física y que hay artículos que lo investigan pero que no están muy aceptados por la comunidad.
    2.1 Estos «problemas de incompletitud físicos», ¿son debidos a la matemática/ actual y simplemente se propagan a las afirmaciones de Física? ¿O por el contrario tienen otra naturaleza y nacen de la propia Física?
    2.2 Aunque no están muy aceptados, ¿cuál crees que es la mejor referencia que hay sobre este tema? Estoy encontrando demasiado ruido al buscar información.

    *En mi opinión, a pesar de la relativa desconexión práctica que tiene la lógica matemática y la fundamentación de la matemática con la ciencia del día a día, creo que es una problemática que matemáticos, físicos e incluso ingenieros, deberíamos al menos conocer para comprender los límites y las suposiciones previas a nuestra actividad…Sin volvernos unos obsesos y caer en la metafísica y la filosofía más especulativas o sin sentido, pero al menos conocerlo.

    1. Higape, en mi opinión el escenario 2 es pseudocientífico, mientras el escenario 1 es el único que puede ser científico. Como dice Chaitin, siguiendo a Weyl y Leibniz, «science is possible because the world seems very complex, but is actually governed by a small set of laws having low conceptual complexity» (https://rdu.unc.edu.ar/handle/11086/3777). La ciencia solo puede llegar a alcanzar la parte de la realidad que está gobernada por un pequeño conjunto de leyes que tienen una complejidad conceptual baja. Sin la idea de «Dios bueno» de Leibniz, no se puede afirmar que toda la realidad sea accesible a la ciencia.

      No puedo compartir la idea de que «la irrazonable eficacia de la matemática en las ciencias naturales» de Wigner y otros tiene su origen en que el mundo platónico de las ideas matemáticas es una sombra de la realidad. Máxime cuando la historia de la matemática muestra todo lo contrario (en mi opinión, quizás sesgada).

      Respuesta 1. No lo sé, pero creo que es la opción científica más pragmática. De hecho, en la comunidad de físicos y matemáticos la opinión mayoritaria es que la filosofía es irrelevante.

      Respuesta 2.1. Tampoco lo sé. En general, la ontología de la física se basa en el modelado continuo, el uso de modelo computacional real (o hipercomputación) subyacente, basado en objetos ideales no numerables regidos por algoritmos continuos con una cantidad no numerable de pasos (https://www.worldscientific.com/doi/abs/10.1142/S0218127496001818); como supongo que sabrás, todos los resultados de Gödel están basados en la computabilidad de las demostraciones mediante algoritmos que tienen una cantidad numerable de pasos (tesis de Church-Turing); si se permite que las demostraciones sean continuas, con una cantidad no numerable de pasos, dichos resultados desaparecen. En dicho caso, no tiene sentido la existencia de problemas de incompletitud físicos. Sin embargo, en mi caso, habiendo estudiado informática teórica y física cuántica, me resulta imposible concebir que la realidad sea continua y requiera hipercomputación. En los últimos años en el marco de la teoría de cuerdas se está reinvindicando la relevancia de que la teoría de la información en física, y la relevancia de que los sistemas físicos estén descritos por una cantidad finita de información (lo que contradice el modelado continuo y la hipercomputación subyacente).

      Respuesta 2.2. No sabría aconsejarte, pues no conozco ninguna buena fuente que resuma el estado actual de este tema. Quizás podrías empezar con una lectura crítica de Leonore Blum, Felipe Cuccker, Michael Schub y Steve Smale, «Complexity and Real Computation» (1997), de Oron Shagrir, «The Nature of Physical Computation» (2022), o de los artículos de los libros editados por S. Barry Cooper y Andrea Sorbi, «New Computational Paradigms. Changing Conceptions of What is Computable» (2008), y «Computability in Context Computation and Logic in the Real World» (2011). También hay tesis doctorales recientes sobre el tema, como Filippos A. Papagiannopoulos, «Computing, Modelling, and Scientific Practice: Foundational Analyses and Limitations» (2018) y Nicolas Fillion, «The Reasonable Effectiveness of Mathematics in the Natural Sciences» (2012). Si prefieres artículos, hay tantos, que es muy difícil seleccionar; un breve resumen sobre hipercomputación es Olivier Bournez, Manuel Campagnolo, «A Survey on Continuous Time Computations,» https://arxiv.org/abs/0907.3117.

      Hace años yo estuve muy preocupado por estos asuntos… pero en los últimos años son solo un ruido de fondo entre las muchas cosas que me interesan.

      1. Gracias por la respuesta tan completa. He ojeado las referencias principales y el capítulo 7 de «Computability in Context» de Cooper y Sorbi me parece especialmente interesante. Sin embargo, también he visto que aún tratándose de referencias bastante académicas y formadas, en algunos textos hay alto contenido de especulación o con argumentos pobres. Por ejemplo, los argumentos de Harvey y Wigner me parecen un poco informales. Así que, para no desviarme mucho de la aproximación formal que me interesa, quisiera cerrar la consulta preguntándote (@Francis y cualquiera interesado en el tema) lo siguiente:

        1. ¿Por qué mencionas que antes estabas interesado en estos temas (Gödel, paradigma de las ciencias básicas, ontología de la física…) pero ya sólo es ruido? ¿Qué te hizo cambiar de opinión? ¿Crees que su estudio no aporta nada? De la ontología lo puedo entender (yo tampoco le veo mucho valor científico), ¿pero del resto…?
        2. ¿Por qué aparentemente no se ve interés en la fundamentación de la Matemática? ¿Está la comunidad cómoda con la visión del pluralismo matemático (Charles Peirce) donde todo tipo de lógicas, objetos matemáticos y axiomas valen? Lo digo porque nunca he entendido cómo los físicos están empeñados en perseguir el sueño de la unicidad, la integración y la consistencia en Física, pero no así en el lenguaje de la Física (la Matemática). Es decir, ¿no es peligroso usar un lenguaje no-fundamentado y completo para definir modelos Físicos que buscan la unicidad e integración? ¿No podrían surgir problemas en Física debido a un lenguaje «problemático»?

        Muchas gracias por tu tiempo.

    2. Es más sencillo higape, vamos a suponer que estamos inmersos en la realidad, realidad pura, realidad inaccesible al entendimiento matemático. Cuando un físico nos habla de la realidad y afirma que la realidad es cuántica se refiere estrictamente a la realidad física, que es el régimen de la realidad al que podemos acceder matemáticamente.

      La realidad física no es simplemente un constructo abstracto ya que tomamos nuestra experiencia en la realidad pura para describir la realidad física.

Deja un comentario