Las teorías de gravitación cuántica (salvo la teoría de cuerdas) predicen que la invariancia Lorentz se incumple a partir de cierta energía EQG cercana a la escala de Planck (EPl). En dichas teorías la fórmula E = p c para un fotón, equivalente a la famosa E = m c², es corregida con potencias de la energía (porque el fotón se propaga en un espaciotiempo cuántico para energías E > EQG). Se publica en Physical Review Letters el mejor límite de exclusión para dichas correcciones lineales, EQG,1 > 10 EPl, y cuadráticas EQG,2 > 6 × 10−8 EPl, un límite que mejora cotas previas en un factor entre 5 y 7. Se ha sido obtenido gracias a la observación del brote de rayos gamma GRB 221009A por el detector WCDA (Water Cherenkov Detector Array) de LHAASO (Large High Altitude Air Shower Observatory) en Daocheng, China, a 4410 metros sobre el nivel del mar. Este ha sido el GRB más brillante observado hasta el momento, con unos 64 000 fotones con energías entre 0.2 y 7 TeV durante sus primeros 4000 segundos. A pesar de que la fuente es cercana, con un desplazamiento al rojo de z = 0.151, se han obtenido los mejores límites para las correcciones lineales y cuadráticas hasta ahora. Se espera que futura observaciones de LHAASO puedan mejorar estos límites a la invariancia Lorentz.
La fórmula usada para la relación de dispersión de un fotón en la gravitación cuántica es E2 = p2c2(1 − ∑n s (E/EQG,n)n), con n = 1, 2, …, ∞, y s = +1 (−1) para correcciones sublumínicas (superlumínicas). Para las sublumínicas (s = +1) los límites obtenidos son EQG,1 > 1.0 × 1020 GeV, y EQG,2 > 6.0 × 1011 GeV, unas cinco veces mejores que las obtenidas con GRB 090510 observado por los instrumentos GBM (Gamma-ray Burst Monitor) y LAT (Large Area Telescope) del telescopio espacial Fermi (LCMF, 17 ago 2009); mientras que para las superlumínicas (s = −1) son EQG,1 > 1.1 × 1020 GeV, y EQG,2 > 7.0 × 1011 GeV, unas siete veces mejores. En mi opinión, lo más relevante de este artículo de LHAASO es la metodología de análisis usada, que no se basa en comparar el fotón más energético con los demás (como se hizo con GRB 090510) sino que compara paquetes (bunches) de fotones; como ilustra la figura se segmenta la curva de luz observada en diez grupos (Seg0, Seg1, …, Seg9). Este cambio metodológico me parece muy prometedor para la futura mejora de estas cotas, si se observan nuevos GRB brillantes en LHAASO.
El artículo es The LHAASO Collaboration, «Stringent Tests of Lorentz Invariance Violation from LHAASO Observations of GRB 221009A,» Physical Review Letters 133: 071501 (15 August 2024), doi: https://doi.org/10.1103/PhysRevLett.133.071501, arXiv:2402.06009 [astro-ph.HE] (08 Feb 2024); Marric Stephens, «Gamma-Ray Burst Tightens Constraints on Quantum Gravity,» APS Physics 17: 299 (15 Aug 2024) [web].
Con CTAO Norte y Sur (y Astri Gamma, por supuesto!) se podrian mejorar las cotas de los limites a la invariancia de Lorentz en el futuro projimo? Y sobre todo, si la cuantizacion no fuese rigurosamente espacial sino temporal (algo asi como «actualizaciones» progresivas, fotogramas, quizas en foliaciones sucesivas de superficies de Cauchy de t=1, t=2, t=3…t=n) tambien se observarian esas diferencia de propagacion de la energia en espaciotiempo cuantizado o seria mucho menor el efecto?
Thomas, CTAO-Norte (La Palma, España), y CTAO-Sur (Paranal, Chile) deberían ver su primera luz en 2027. Se espera que observe GRB con energías entre 20 GeV y 300 TeV, con lo que debería ser capaz de ofrecer nuevos límites a la violación de la simetría Lorentz. En cuanto a lo que comentas respecto al tiempo, como se usa la constancia de la velocidad de la luz en el vacío, es equivalente al espacio; no hay diferencia observable.
¡Gracias, Francis! He estado siguiendo el trabajo de CTAO y me parece impresionante. Ojalá se pueda detectar alguna señal atribuible a ALP, eso sería lo más prometedor por ahora para saber si estamos en el buen camino con la teoría de cuerdas y la materia oscura axiónica, o si la naturaleza tenía otros planes…
Me disculpo, Francis, por algo fuera del artículo.
Quantum nonlocality demonstrated in first loophole-free test of Hardy’s paradox.
DOI: 10.1103/PhysRevLett.133.060201. On arXiv: DOI: 10.48550/arxiv.2401.03505
Sería mucho pedir que hagas una nota sobre no-localidad cuántica?
Es un tema confuso para un aficionado. –Es sabido que Einstein no aceptaba fenómenos fuera de realismo local, pero…¿Que significa no-localidad cuántica, explicada para un lego?
Saludos desde Argentina, Francis.
Carlos, sobre la paradoja de Hardy en este blog puedes leer «El misterio de los soufflés cuánticos o la paradoja de Hardy», LCMF, 21 ene 2009; «Las medidas cuánticas débiles y las probabilidades cuánticas negativas», LCMF, 05 ago 2011; entre otras.
No prometo nada sobre Si-Ran Zhao, Shuai Zhao, …, Jian-Wei Pan, «Loophole-free test of local realism via Hardy’s violation,» Phys. Rev. Lett. 133: 060201 (07 Aug 2024), doi: https://doi.org/10.1103/PhysRevLett.133.060201, arXiv:2401.03505 [quant-ph] (07 Jan 2024), https://arxiv.org/abs/2401.03505. Pero recalco que es más interesante el argumento de Cabello (Univ. Sevilla), que va más allá del de Hardy sobre el realismo en cuántica (Ming Yang, Dongkai Zhang, Lixiang Chen, «Cabello’s nonlocality argument for multisetting high-dimensional systems and its experimental test,» Phys. Rev. A 110: 012441 (15 Jul 2024), doi: https://doi.org/10.1103/PhysRevA.110.012441, arXiv:2403.07417 [quant-ph] (12 Mar 2024), https://arxiv.org/abs/2403.07417).
Hola Carlos, los términos «localidad» y «no localidad» pueden parecer algo confusos porque diversos físicos, cuando divulgan, los suelen utilizar en contextos distintos y los mezclan.
EL principio de localidad establece que un fenómeno físico no puede verse alterado por algo que esté pasando más allá de su cono de luz, es decir, no puede verse afectado por algo que haya llegado a él a una velocidad mayor que la luz, no puede tener influencias instantáneas de algo lejano.
El consenso actual es que los fenómenos cuánticos son Locales, es decir, los sistemas NO se ven afectados por fenómenos alejados, de forma instantánea.
Ahora bien, hay autores que hablan de no-localidad cuando hay superposición a mucha distancia, pero no porque crean que hay un chivatazo instantáneo, si no porque quieren expresar que la medida que se hizo a la compañera lejana está determinando a la local. Este es el caso de Nicolas Gisin o de Dieter Zeh.
Hay dos cosas que rompen el realismo definido por Einstein, uno es que la naturaleza nos esté dando resultados intrínsecamente aleatorios y otro que se rompan las desigualdades de Bell. Observamos que por el momento la naturaleza no es Realista en este sentido.
El teorema de Bell es un hachazo para el realismo local, pero el indeterminismo no está reñido con el realismo. Einstein quería una física realista para un universo determinista (y estático y eterno, de paso). Detestaba el indeterminismo y el instrumentalismo de Copenhague, pero son batallas distintas.
Indudablemente es muy interesante a nivel filosófico, pero a nivel científico, como diría Susskind «A veces pienso que la violación de las desigualdades de Bell esconde algo muy profundo, y otras que no hay nada ahí realmente interesante» Lo decía en el contexto de que no existe una verdadera paradoja física, la paradoja está solo en lo que nosotros esperamos que se comporte la naturaleza según nuestra experiencia del día a día….e iba a decir lógica, pero no, existe una lógica matemática bien asentada respecto a este comportamiento que deriva en las C*-Algebra.
Pero sí estoy de acuerdo contigo de que a nivel filosófico es importante a la hora de valorar el «Realismo» que la ciencia presupone detrás de todo. Así como una definición de «experiencia» o como en otros comentarios que has hecho de «intución» y demás términos que en ciencia se usan de forma naiv o ingenua.
Respecto al instrumentalismo de Copenhague, habría que matizar mucho. Hay que distinguir autores y aspectos de la teoría. Incluso hoy se percibe una tensión entre quienes, incluso aceptando que la función de onda es epistémica, ponen el acento ontológico en el estado cuántico y quienes lo ponen en la medida. Unos dirán que, si la función de onda es epistémica, su colapso también. A continuación añadirán que lo real es la evolución unitaria del estado cuántico. Otros dirán que, si la función de onda es epistémica, el estado cuántico es una ficción operativa y lo real es el suceso concreto, el resultado aleatorio de cada medida. La misma tensión se traslada al problema del límite clásico y a la interpretación de la decoherencia. Cerrar en falso el problema de la medida o ignorar la legalidad que gobierna los contrafácticos (no todo lo posible es igual de problable). Cuestión de gusto.
https://www.youtube.com/watch?v=cS3612EIcF4
Así es. El problema es que, de toda la vida de dios, cuando los grados de libertad de la teoría son menos que la realidad, se dice que la teoría tiene un carácter epistémico, cuando son los mismos, se dice que ontológico, pero ahora estamos bregando con una teoría que tiene mayor grados de libertad que la realidad…y la teoría está completa, y la naturaleza no tiene visos de descubrirnos de repente nuevos grados ocultos…
La naturaleza no mostrará grados ocultos. Lo que muestra, siempre ahora, es la concreción de esos grados de libertad en eventos únicos, para los que podemos calcular una probabilidad, pero que son intrínsecamente aleatorios (de ahí la tensión). Los físicos tampoco os quedáis cortos eligiendo términos. Cuando me topé con ellos me hice un lío entre unitariedad e historia única. El segundo no implica determinismo. La interpretación de Everett es determinista pero no hay historia única, mientras que la de Copenhague es indeterminista y sí la hay.