Podcast CB SyR 479: radar LARID, misión Cluster, superchorro relativista, cúmulos de agujeros negros primordiales y entrelazamiento entre quarks top

Por Francisco R. Villatoro, el 27 septiembre, 2024. Categoría(s): Astrofísica • Ciencia • Física • LHC - CERN • Noticia CPAN • Noticias • Physics • Podcast Coffee Break: Señal y Ruido • Recomendación • Relatividad • Science ✎ 4

Te recomiendo disfrutar del episodio 479 del podcast Coffee Break: Señal y Ruido [iVoox AiVoox BApplePodcast AApplePodcast B], titulado “Plasma y Pirámides; Misión Cluster; Cúmulos de Agujeros Negros; Megajet; Entrelazamiento”, 25 sep 2024. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: Patrocinio: AICAD Business School (10:30). Desmitificando lo de las burbujas de plasma sobre las pirámides de Giza (13:52) [iV, AP]. La misión Cluster (parte 1) (30:55) [iV, AP]. Cara B: Interludio: La tensión del parámetro de Hubble (00:10) [iV, AP]. La misión Cluster (parte 2) (09:10) [iV, AP]. Superchorro de un agujero negro (22:35) [iV, AP]. Patrocinio: Babbel, la escuela de idiomas en tu móvil (código COFFEEBREAK en la oferta de 3 meses + 3 meses gratis) (37:10). Buscando cúmulos de agujeros negros primordiales con lente gravitacional (40:10) [iV, AP]. Entrelazamiento cuántico a las mayores energías visto hasta ahora (1:25:10) [iV, AP]. Señales de los oyentes (1:42:00) [iV, AP]. Imagen de portada realizada por Héctor Vives-Arias. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».

¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 282! Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!

Descargar el episodio 479 cara A en iVoox.

Descargar el episodio 479 cara B en iVoox.

Como muestra el vídeo participamos por videoconferencia Héctor Socas Navarro @HSocasNavarro (@pCoffeeBreak), Héctor Vives-Arias @DarkSapiens, Juan Carlos Gil Montoro @Ooxine/@ApuntesCiencia, José Edelstein @JoseEdelstein, Gastón Giribet @GastonGiribet, y Francis Villatoro @eMuleNews (solo cara B). Por cierto, agradezco a Manu Pombrol @ManuPombrol el diseño de mi fondo para Zoom; muchas gracias, Manu.

Tras la presentación, Héctor nos desmitifica la noticia de las burbujas de plasma sobre las pirámides de Giza. El radar LARID (Low lAtitude long Range Ionospheric raDar antenna array), en Hainan, China, ha detectado burbujas de plasma en la ionosfera a una distancia de 9600 km, como anunció el 27 de agosto en su web el Instituto de Geología y Geofísica de la Academia de Ciencias de China en Pekín. En su fase inicial su alcance estaba limitado a 3000 km, luego haber detectado una señal tan lejana es todo un éxito de LARID; de hecho, se pretende con esta noticia solicitar financiación para ampliar LARID con más antenas para alcanzar distancias aún más lejanas. En concreto, se ha detectado una enorme burbuja de plasma de miles de kilómetros cuadrados en África Oriental (región azul en la imagen), provocada por una tormenta solar se observa una reducción en la densidad de electrones en la ionosfera. Como las pirámides de Giza están en Egipto y este país está en África Oriental, blanco y en botella.

No se ha publicado ningún artículo científico. La noticia solo pretende promocionar el conjunto de antenas de LARID, que opera en la banda de frecuencia de 8 a 22 MHz, con dos subsistemas, uno orientado hacia el este y otro hacia el oeste, cada uno con 24 juegos de antenas transceptoras. LARID es el equivalente chino al estadounidense HAARP (High-Frequency Active Auroral Research Program). Como es obvio, el universo magufo no ha podido resistir la tentación de reducir toda África Oriental a tan solo las pirámides de Giza. La noticia en Stephen Chenin, «China’s super-radar detects plasma bubble over the pyramids in Giza,» SCMP, 07 Sep 2024; Ashish Dangwal, «With 10,000 KM Range — China Boasts World’s Most Powerful Radar That Can Detect ‘Rare’ Plasma Bubbles, Stealth Aircraft,» The EurAsian Times, 08 Sep 2024. Por cierto, como es obvio, una de las misiones del radar LARID es militar, como la de HAARP, detectar aviones de combate de última generación; como el F-22 Raptor de Estados Unidos, que alcanza 65 000 pies (20 km) y Mach 2.25. Para los interesados en más información sobre LARID recomiendo leer a Lianhuan Hu, Guozhu Li, …, Yong Yan, «Development of Low Latitude Long Range Ionospheric Radar for Observing Plasma Bubble Irregularities and Preliminary Results,» Journal of Geophysical Research: Space Physics 129: e2023JA032099 (07 Mar 2024), doi: https://doi.org/10.1029/2023JA032099.

Héctor destaca el patrocinio de AICAD Business School (https://www.aicad.es).

Juan Carlos nos describe la misión Cluster de la ESA. Está formada por cuatro satélites en constelación tetraédrica, lanzados a pares el 16 de julio y el 9 de agosto de 2000 por sendos cohetes Soyuz desde el cosmódromo ruso de Baikonur. La puesta en servicio de sus 44 instrumentos se completó en cinco meses, siendo el 1 de febrero de 2001 el inicio oficial de la misión operativa. El objetivo principal de la misión Cluster es estudiar las estructuras de plasma a pequeña escala en tres dimensiones en regiones clave del plasma, como el viento solar, el arco de choque, la magnetopausa, las cúspides polares, la cola magnética y las zonas aurorales. Con sus capacidades únicas de resolución espacial tridimensional, Cluster desempeña un papel importante en el Programa Solar Terrestre Internacional (ISTP), en el que Cluster y el Observatorio Solar y Heliosférico (SOHO) son las contribuciones europeas. Se esperaba que la misión tuviera una duración de 10 años y ha alcanzado 24 años (y dos ciclos solares). Todo un éxito que ha conducido a muchos artículos en revistas de alto impacto como Nature y a muchísimas tesis doctorales.

La carga útil de Cluster consiste en instrumentos para el estudio del plasma solar, tanto para medir campos eléctricos y magnéticos desde frecuencias cuasiestáticas hasta altas frecuencias, como la distribución de iones y electrones desde energías de casi 0 eV hasta unos pocos MeV. Su operación científica se coordinada por el Centro de Operaciones Científicas Conjuntas (JSOC), en el Laboratorio Rutherford Appleton (Reino Unido) y por el Centro Europeo de Operaciones Espaciales (ESOC), en Darmstadt, Alemania. Una red de ocho centros de datos nacionales procesa los datos brutos, para su distribución a los usuarios finales en todo el mundo.

Nos comenta Juan Carlos que se aplica una reentrada controlada para la «destrucción» de estos satélites a través de la atmósfera y en dirección al Océano Pacífico. Antes se realizan diferentes labores, como la «pasivización» o gasto de toda su energía. El pasado 8 de septiembre reentró Salsa, «que salpicó de salsa» el punto de reentrada en el Pacífico Sur; fue todo un éxito, pues se cree que todos los fragmentos se han quemado en la atmósfera. Sus tres satélites compañeros (que ahora están en modo de mantenimiento) reentrarán en los próximos años, Samba en 2025, y Rumba y Tango en 2026. Lo comentaremos cuando acontezca. Los petabytes de datos recabadas por la misión Cluster se liberará para que toda la comunidad científica pueda utilizarlo. Más información sobre la misión en C. P. Escoubet, M. Fehringer, M. Goldstein, «The Cluster mission,» Annales Geophysicae 19: 1197-1200 (2001), doi: https://doi.org/10.5194/angeo-19-1197-2001; y en la página web de la ESA para la misión Cluster (https://sci.esa.int/web/cluster/).

Gastón nos cuenta que se ha observado el mayor chorro de un agujero negro supermasivo, (SMBH), con un tamaño proyectado en el cielo de 6.43 ± 0.05 Mpc y una longitud estimada de 7.28 ± 0.05 Mpc. Ha sido toda una sorpresa que alcance los 7 Mpc porque hasta ahora los chorros más largos conocidos (se conocen más 11 000) alcanzan 5 Mpc. La diferencia puede parecer pequeña, pero los modelos teóricos se habían ajustado para que el límite máximo estuviera entre 4.6 y 5 Mpc. Por ello, estos 7 Mpc requieren modificar los modelos teóricos (aunque no parece difícil lograrlo). La clave de estos superchorros es una actividad muy prolongada en el tiempo del AGN que los genera, aunque bastan decenas de millones de años (muy poco para la larga vida de estos SMBH). Se descubrió con LOFAR a λ  = 2.08 m usando aprendizaje automático y ciencia ciudadana. Ha sido bautizado como Porfirión (Porphyrion) y su galaxia fuente fue identificada con VLBI; se ha estudiado con muchos instrumentos, incluyendo a DESI y el espectrómetro LRIS del telescopio Keck I, estimándose un desplazamiento al rojo de z = 0.896 ± 0.001.

Este chorro tiene un tamaño similar al 66 % de los vacíos de la web cósmica en su época, z = 0.9, que eran más pequeños que los vacíos actuales. Récords anteriores se encontraban mucho más cerca y solo alcanzaban entre el 20 % y el 30 % de los vacíos. Nos comenta Héctor Vives que la galaxia origen del chorro está en un filamento de la web cósmica entre supercúmulos, con lo que el chorro se propagado en los vacíos a ambos lados del filamento, con lo que ha crecido tanto porque ha sido menos frenado por el gas intergaláctico, que tiene menor densidad en dichos vacíos. Gracias a ello se podrán adaptar los modelos teóricos para explicar este chorro de récord, que se publica en la revista como Nature, pero lo más interesante son los demás chorros observados aunque tengan menor tamaño; dichos objetos serán los que ayuden a ajustar con los modelos el nuevo récord. Por ello, «que no te vendan la moto» con que este objeto «no debería existir según las leyes de la Física», pues en realidad todo apunta a que será explicarlo con un buen ajuste de los modelos con las nuevas observaciones. El artículo es Martijn S. S. L. Oei, Martin J. Hardcastle, …, S. G. Djorgovski, «Black hole jets on the scale of the cosmic web,» Nature 633: 537-541 (18 Sep 2024), doi: https://doi.org/10.1038/s41586-024-07879-y. Por cierto, en 2022 fue noticia un chorro de 5 Mpc (4.99 ± 0.04 Mpc), Martijn S.S.L. Oei, Reinout J. van Weeren, …, Aleksandar Shulevski, «The discovery of a radio galaxy of at least 5 Mpc,» Astronomy & Astrphysics 660: A2 (2022), doi: https://doi.org/10.1051/0004-6361/202142778, arXiv:2202.05427 [astro-ph.GA] (11 Feb 2022).

Héctor destaca el patrocinio de Babbel, «la escuela de idiomas que te llevas en tu móvil». https://www.babbel.com con el código COFFEEBREAK en la oferta de 3 meses se obtienen 3 meses gratis adicionales.

Héctor Vives nos habla de su reciente artículo sobre la búsqueda de cúmulos de agujeros negros primordiales (PBH) con lentes gravitacionales. Los agujeros negros primordiales son candidatos a la materia oscura; por desgracia, solo hay una pequeña ventana abierta que permite que constituyan toda la materia oscura observada. Las microlentes gravitacionales se han usado para estimar la abundancia de estos PBH, permitiendo excluir los PBH con masa estelar ( ≲ 100 M⊙, masas solares). . Sin embargo, estos estudios se basan en suponer que se distribuyen de forma uniforme por el universo; se ha propuesto que podrían estar distribuidos en cúmulos (como las estrellas y las galaxias). El nuevo artículo realiza un análisis bayesiano de esta posibilidad, aprovechando que los cúmulos de PBH mostrarían una señal de microlensado mucho más intensa (porque lo que se magnifica depende del tamaño, área, de la lente).

Una lente gravitacional produce cuatro imágenes de un cuásar; a partir de ellas se estima la distribución de materia de la lente asumiendo que no hay objetos compactos. Si hubiera cúmulos de agujeros negros, se observarían anomalías de flujo (flux-ratio anomalies); se comparan las cuatro imágenes a pares y se estima el cociente entre el flujo observado y el esperado (o predicho). La ausencia de estas anomalías de flujo permite descartar que haya una población significativa de cúmulos de PBH que pueda dar cuenta de la materia oscura. Un resultado esperado, pero necesario. El artículo es Sven Heydenreich, …, Héctor Vives-Arias, Jose A. Muñoz, «The Abundance of Clustered Primordial Black Holes from Quasar Microlensing,» arXiv:2409.04534 [astro-ph.CO] (06 Sep 2024), doi: https://doi.org/10.48550/arXiv.2409.04534.

Nos lo iba a contar Gastón, pero como tuvo que marcharse, me tocó a mi. Se ha publicado en Nature la observación por el detector ATLAS en el LHC del entrelazamiento cuántico entre quarks top en colisiones a 13 TeV c.m. en el LHC Run 2 (entre 2015 y 2018). Recomiendo mi pieza sobre el tema, «ATLAS y CMS observan el entrelazamiento cuántico en pares de quarks top-antitop», LCMF, 26 sep 2024. El entrelazamiento recibió el Premio Nobel de Física de 2022 en experimentos a muy baja energía (en la escala de los eV, electrónvoltios). La nueva observación eleva dicha energía en un factor de un billón, hasta la escala TeV, teraelectrónvoltios. El resultado de ATLAS publicado en Nature ya fue anunciado en septiembre de 2023 (yo entonces estuve tentado a hablar del tema en el podcast). Se ha publicado en Nature gracias a haber sido confirmado por CMS en junio de 2024 (el nuevo récord de energía es de CMS en septiembre de 2024). Tanto ATLAS como CMS han superado las cinco sigmas (desviaciones típicas), de hecho, incluso las diez sigmas.

ATLAS ha publicado en Nature el análisis de 140 fb⁻¹ de colisiones, obteniendo un valor del marcador de entrelazamiento D = −0.547 ± 0.002 (stat.) ± 0.021 (syst.) = −0.547 ± 0.021,  para masas del par top-antitop entre 340 y 380 GeV/c²; este valor tiene que ser menor de D < −1/3 para demostrar el entrelazamiento (lo que se ha logrado con más de diez sigmas). El resultado de CMS en junio de 2024 (que aparecerá en Reports on Progress in Physics) ha sido D = −0.480 ± 0.029, tras analizar 36.3 fb⁻¹ de colisiones, supera las cinco sigmas (desviaciones típicas). Su resultado de septiembre de 2024 (que aparecerá Physical Review D) para el análisis 138 fb⁻¹ de colisiones, logra observar el fenómeno a más de seis sigmas por encima de 800 GeV/c², y a unas cuatro sigmas por encima de 1000 GeV/c² = 1 TeV/c².

El entrelazamiento se observa entre los espines del quark top y del antiquark antitop, correlación que se propaga a los bosones W en los que se desintegran y a su vez a los leptones (electrones o muones) en los que decaen estos últimos. Así, los ángulos entre los leptones permiten estimar el marcador de entrelazamiento. Por cierto, el entrelazamiento se caracteriza con una matriz hermítica de traza unidad y cuatro dimensiones, que tiene 15 parámetros reales. El parámetro D es una combinación de algunos de dichos parámetros. En mi opinión, lo más llamativo de esta noticia es que los padres de la idea de usar este parámetro son Yoav Afik (miembro de la colaboración ATLAS) y el físico teórico español Juan Ramón Muñoz de Nova (que firma el artículo de ATLAS gracias a una membresía de honor en la colaboración ATLAS, a la que no pertenece). Los artículos son The ATLAS Collaboration, «Observation of quantum entanglement with top quarks at the ATLAS detector,» Nature 633: 542-547 (18 Sep 2024), doi: https://doi.org/10.1038/s41586-024-07824-z, arXiv:2311.07288 [hep-ex] (13 Nov 2023); CMS Collaboration, «Observation of quantum entanglement in top quark pair production in proton-proton collisions at √s = 13 TeV,» Reports on Progress in Physics (submitted), arXiv:2406.03976 [hep-ex] (06 Jun 2024), doi: https://doi.org/10.48550/arXiv.2406.03976; y CMS Collaboration, «Measurements of polarization and spin correlation and observation of entanglement in top quark pairs using lepton+jets events from proton-proton collisions at √s = 13 TeV,» Physical Review D (submitted), arXiv:2409.11067 [hep-ex] (17 Sep 2024), doi: https://doi.org/10.48550/arXiv.2409.11067. Los artículos que propusieron la idea original son Yoav Afik, Juan Ramón Muñoz de Nova, «Entanglement and quantum tomography with top quarks at the LHC,» The European Physical Journal Plus 136: 907 (03 Sep 2021), doi: https://doi.org/10.1140/epjp/s13360-021-01902-1, arXiv:2003.02280 [quant-ph] (04 Mar 2020), y Yoav Afik, Juan Ramón Muñoz de Nova, «Quantum information with top quarks in QCD,» Quantum 6: 820 (29 Sep 2022), doi: https://doi.org/10.22331/q-2022-09-29-820, arXiv:2203.05582 [quant-ph] (10 Mar 2022).

Y pasamos a Señales de los Oyentes. Cristina Prada pregunta: «¿En el Big Bang se dieron condiciones propicias para el entrelazamiento cuántico?» Héctor contesta que el entrelazamiento es lo más cotidiano del mundo. Se produce de forma continua, a nivel microscópico. Jose comenta que el Bang del Big Bang ocurre en el recalentamiento. Todos los campos en dicha época muestran estados entrelazados.

Recuerdo que la Big Bang se refiere a dos cosas: el Big Bang caliente y el Big Bang inflacionario. El Big Bang caliente es la teoría original, 1947, a partir de una teoría de la nucleosíntesis. Hacia el pasado acaba a una singularidad primordial. Esa teoría está completamente refutada. Predice un universo más joven que las estrellas más viejas. La teoría actual es la del Big Bang inflacionario, que predice que hay un estado primordial inflacionario, anterior al Big Bang, que acaba es el recalentamiento; el Bang del Big Bang caliente ocurre en el recalentamiento. Y todo en aquella época está entrelazado. Jose recalca que lo hace de manera muy parecida a la física de partículas, como con los quark top y antitop, y también de partículas hipotéticas aún no descubiertas.

Héctor vuelve apostillar que el entrelazamiento no es algo raro, se produce de forma continua en la naturaleza. Lo difícil es observarlo, medirlo y estudiarlo. Jose aclara que el problema es mantenerlo; el entrelazamiento se produce de forma continua, pero luego se rompe muy rápido, si las partículas no están bien aisladas.

Cebra pregunta: «Cuando hablábamos de deorbitar satélites, ¿no tienen restos radiactivos?» Héctor contesta que no, estos satélites no llevan elementos radiactivos. Ni los de Cluster, ni ningún otro. Y solo los tienen unas pocas misiones de espacio profundo. Héctor Vives destaca que los rovers a Marte, Perseverance y Curiosity, sí que llevan, y también lo hará la misión Dragonfly que irá a Titán (de hecho la tecnología que usan es la misma). Los paneles solares son suficientes para la mayoría de las misiones espaciales.

Frank35 pregunta: «¿Qué novedades hay sobre «el cometa del siglo» (clickbait) que está a punto de llegar a su perihelio? ¿Hay predicciones más precisas sobre el brillo que podría llegar a alcanzar?» Héctor aclara que se refiere al Cometa C/2023 A3 (Tsuchinshan-ATLAS), que se acerca al perihelio y que si sobrevive a dicho perihelio en mediados de octubre será el mejor momento para observarlo. Podría llegar a tener magnitud mejor que 3. Algún astrónomo aficionado decía que ya lo había visto con magnitud 3. Pero hay incertidumbres sobre si sobrevivirá el paso por el perihelio, eso es lo que habrá que ver.

Thomas Villa pregunta: «¿Podría haber una «nube de Oort» de agujeros negros primordiales de tamaño inferior a asteroides que pueda justificar las curvas de velocidad de las galaxias?» Héctor dice que sería una «nube de Oort galáctica», pues la nube de Oort es la fuente de cometas que envuelve un sistema solar. Héctor Vives apostilla que sería el halo materia oscura. Pero la curva de rotación no es porque algo envuelva la galaxia, sino porque la galaxia entera está metida dentro de una distribución de masa esférica.

Pregunta Ana Carla: «Mi pregunta es para Francis, ¿qué es la espuma cuántica? ¿Tiene que ver con las escalas de Planck?» Contesto que es una idea especulativa de John Wheeler. No sabemos cómo la teoría geométrica de Einstein sobrevive en la escala de Planck. Wheeler propuso a principios de los 1960 que la geometría diferencial no puede sobrevivir, pero que si lo puede hacer la topología diferencial. Llamó espuma cuántica a una geometría caótica con agujeros negros que se crean y se destruyen, agujeros de gusano que se crean y se destruyen, … una estructura muy complicada difícil de imaginar. El espaciotiempo suave se perdería y se sustituiría por algo que llamó espuma cuántica, caracterizado por una topología en la escala de Planck que energías más bajas daría lugar a la emergencia del espaciotiempo de Einstein, que es diferenciable (suave).

¿Cómo podemos explorar la espuma cuántica a nivel observacional? La propagación de partículas durante mucho tiempo en el espaciotiempo vería modificada sus propiedades por la existencia de esa espuma cuántica. Por ejemplo, un fotón que recorra decenas de miles de millones de años antes de llegar a nosotros se vería afectado por dicha espuma cuántica, que modificaría su relación de dispersión, la relación entre su energía y su momento lineal. Jose comenta que hasta ahora no hemos visto ninguna señal de la espuma cuántica. El fenómeno si existe, debe ser un fenómeno tan pequeño que aún no se ha visto, ni siquiera con los fotones del fondo cósmico en microondas. La escala de Planck está muy lejos de todas las escalas exploradas por la física.

Héctor sugiere que sería una predicción genérica de la gravitación cuántica, por ejemplo, en teoría de cuerdas. Yo contesto que no, en teoría de cuerdas no se predice una espuma cuántica per se, gracias a la simetría del espejo (mirror simmetry) o dualidad T. Jose recalca que en teoría de cuerdas aparecen correcciones geométricas a la teoría de Einstein, una serie infinita de términos en potencias de la curvatura. No se sabe qué describen, pero podrían describir algo parecido a la espuma cuántica.

Wheeler introdujo la idea de la espuma cuántica en 1957, John A. Wheeler, «On the nature of quantum geometrodynamics,»Annals of Physics 2: 604-614 (1957), doi: https://doi.org/10.1016/0003-4916(57)90050-7; la manera de entender la espuma cuántica a nivel topológico se describe bien en Robert P. Geroch, «Topology in General Relativity,» Journal of Mathematical Physics 8: 782–786 (1967), doi: https://doi.org/10.1063/1.1705276. A nivel divulgativo, sobre las especulaciones de Wheeler, recomiendo su biografía: John Archibald Wheeler, Kenneth William Ford, «Geons, Black Holes, and Quantum Foam: A Life in Physics» (2000).

Cristina Hernández pregunta: «Si tenemos cámaras en miles de satélites separadas y apuntando al mismo objeto, ¿cuál nivel de capacidad de telescopio tendría el conjunto?» Héctor contesta que hay dos dos propiedades de todo telescopio, que lo caracterizan. Una es su sensibilidad, cuánta luz es capaz de captar, cómo de débiles serán los objetos que puedes ver, o cuán lejos puedes ver. Y otra es cuán pequeñas son las cosas que puede ver, cuánto aumentas lo que estás viendo. Un telescopio muy grande te permite mejorar ambas cosas.

Cuando combinas muchas cámaras en diferentes satélites, la luz que vas a recoger equivale a la suma de  las áreas de los sensores de todos esos satélites. Y en cuán pequeño podemos ver se puede mejorar usando interferometría. En radio (con radiotelescopios) lo sabemos hacer bien, pero en el óptico es muy difícil, sobre todo porque tienes que controlar muy la distancia entre las cámaras con una precisión inferior a la longitud de onda de la luz que estás midiendo. Héctor Vives destaca que hay que recoger la fase con la que llega el campo electromagnético. Héctor replica que es necesario en radio, pero en óptico se usa una configuración diferente.

Héctor nos describe la misión LIFE, con cuatro satélites y uno central que recoge la luz de los cuatro  y hace la interferencia en el centro. El problema es que obtienes una buena resolución en la dirección de separación de cada pareja de satélites. Para tenerlo en todas las direcciones se requiere un anillo de satélites. LIFE usará dos en una dirección y otros dos perpendiculares. Héctor Vives aclara que para objetos estáticos, con radiotelescopios se aprovecha que la Tierra gira. Esto equivale a tener muchos más radiotelescopios, como si estuvieran en posiciones diferentes. Más información en Daniel Marín, «LIFE: un interferómetro espacial para estudiar planetas habitables en otras estrellas», Eureka, 27 ene 2021.

Lorenzo Escartín pregunta: «¿El Event Horizon Telescope lo hizo por interferometría?» Héctor contesta que así es, pero al ser en radio había una ventaja. Se registró la fase en disco duro y luego se combinaron los datos de diferentes radiotelescopios. Héctor Vives comenta que en óptico esto no es posible porque no se registra la fase, los detectores funcionan con la colisión de un fotón con un electrón que lo hace saltar para luego ser amplificado y ofrecer una señal. La fase se pierde en este proceso.  Además, comenta que la posición de los radiotelescopios debe ser controlada con mucha precisión; les afecta hasta el movimiento de las placas tectónicas y cualquier terremoto. Hacer todo esto en órbita es muy complicado.

¡Que disfrutes del podcast!



4 Comentarios

  1. ¿El parámetro D que usan los autores está relacionado con los estados de Bell de los pares o nada que ver?

    Entendía que infieren la existencia de dichos estados a partir del producto de ciertas desintegraciones, pero no he visto ninguna mención de dichos estados en los artículos (o no he podido distinguirlo..)

    1. P, no hay ninguna relación directa entre los estados tipo Bell y el parámetro D (aunque en última instancia la desigualdad D < -1/3 es de tipo CHSH). El espacio de Hilbert de dos cúbits (dos espines) es de dimensión cuatro y las correlaciones entre los cúbits (es decir, el entrelazamiento) se describen por una matriz 4×4 con 15 parámetros reales; dicha matriz se puede descomponer en dos vectores B y una matriz C, siendo el parámetro D proporcional a la traza de C (la ventaja de dicho parámetro es que se puede relacionar con el ángulo entre los leptones). La medida de ATLAS y la de CMS de junio presenta muchos loopholes; el más relevante, la posible conexión causal, se elimina en el artículo de CMS de septiembre gracias a alcanzar una energía superior a 800 GeV (pero quedan otros más difíciles de eliminar). No se puede realizar un experimento controlado con el LHC; solo se puede interpretar lo que se observa (que no es moco de pavo).

  2. Pues otro capítulo maravilloso para escuchar, ¡felicidades! Me gustó mucho el análisis de la afirmación sobre el ‘plasma de las pirámides’: la divulgación científica juega un papel fundamental para que, como sociedad, podamos evolucionar hacia un sano escepticismo y saber demarcar (sin juzgar, por supuesto) las diferentes formas del saber. Antes de meternos a explicar un fenómeno y acabar en la trampa de las fake news, ¿estamos seguros de que ese fenómeno es real y de verdad ha ocurrido? En muchos casos, la explicación más simple es la más acertada, y esto lleva como corolario al hecho de que es posible que algo tan raro nunca tenga explicación porque simplemente nunca se ha realizado. 🙂 En mis pesquisas sobre los bulos en las redes, más veces me he topado con conspiranoicos afirmando tonterías sobre HAARP, y por la ley de Brandolini sabemos que es difícil desentrañar las cosas, una vez que están manchadas por el conspiracionismo.

    Por cierto, me encantó la parte sobre John Wheeler; cuanto más conozco sobre ese profesor, más me gusta. Es de los que pensaba de manera geométrica, como me gusta a mí, que soy schröedingeriano ontológico, ¡jejeje! 🙂 Ahora me informaré sobre los geones.

    Si tuviera que apostar por algo, quizás no apostaría por la espuma cuántica, sino por una suerte de ‘espacio de configuraciones’ abstracto y geométrico invariante de escala donde se realizan todos los fenómenos ‘subplanckianos’. Posiblemente, el número de dimensiones de ese mundo sería definido cada vez por los grados de libertad requeridos por los entes en interacción y luego serían mapeados a la escala observacional. Algo así, supongo…

    1. Thomas, Wheeler es el padre de la geometrodinámica, que hoy no recibe nombre alguno, pues nos parece obvio que la teoría de la relatividad general describe la dinámica de la geometría del espaciotiempo. Aunque Wheeler siempre quiso darle un matiz cuántico a su geometrodinámica, nunca logró una formulación cuántica, más allá de lo cuasiclásico.

Deja un comentario