Podcast CB SyR 371: cefeidas y constante de Hubble, EHT y el chorro en M87*, redes neuronales y glaucoma, y moléculas de Rydberg

Por Francisco R. Villatoro, el 10 junio, 2022. Categoría(s): Astrofísica • Astronomía • Ciencia • Física • Informática • Nature • Noticias • Physics • Podcast Coffee Break: Señal y Ruido • Recomendación • Science ✎ 6

He participado en el episodio 371 del podcast Coffee Break: Señal y Ruido [iVooxiTunes], titulado “Ep371: JWST; GAIA y Cefeidas; ¿Chorro en M87*?; Glaucoma; Átomos de Rydberg», 09 jun 2022. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. En el episodio de hoy: Microimpacto en el JWST (min 5:00); GAIA, cefeidas y la discrepancia de H0 (14:00); ¿Chorro en M87*? (59:30); Redes neuronales para el diagnóstico del glaucoma (1:44:30); Átomos de Rydberg (2:13:30); Señales de los oyentes (2:30:00). Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso. CB:SyR es una actividad del Museo de la Ciencia y el Cosmos de Tenerife. Museos de Tenerife apoya el valor científico y divulgativo de CB:SyR sin asumir como propios los comentarios de los participantes».

Portada gentileza de Manu Pombrol (@manupombrol).

Ir a descargar el episodio 371.

Como muestra el vídeo, en el Museo de la Ciencia y el Cosmos de Tenerife se encuentra su director, Héctor Socas Navarro @HSocasNavarro (@pCoffeeBreak), y por videoconferencia Alberto Aparici @cienciabrujula, Gastón Giribet @GastonGiribet, y Francis Villatoro @emulenews, en la primera hora, y Sara Robisco Cavite @SaraRC83, e Iván MartíVidal @IMartiVidal, en la segunda hora.

Tras la presentación de Héctor nos comenta una fe de erratas sobre su explicación de por qué la Voyager 1 fue lanzada el 5 de septiembre de 1977, mientras que la Voyager 2 fue lanzada el 20 de agosto de 1977; por lo que parece la razón es que se numeraron por el momento de llegada a Júpiter (llegó primero Voyager 1). Héctor también comenta el impacto de un micrometeorito con uno de los segmentos del espejo del telescopio espacial James Webb, pero por fortuna el daño es de poca importancia; ya habían impactado cuatro, pero más pequeños, siendo algo esperado; pero la nueva micropartícula es de mayor tamaño del esperado, por lo que hay cierta preocupación al respecto. Por cierto, para el próximo 12 de julio se presentarán las primeras imágenes (que ahora se deben estar tomando).

Aprovechando que están José y Gastón comento su respuesta a una pregunta sobre el número de campos cuánticos que se han observado. Son 118 campos (individuales o componentes), 90 fermiónicos y 28 bosónicos (sin contar al gravitón, que serían dos campos). Destaco la diferencia entre componentes izquierdas y derechas de los fermiones. Ellos comentaron que el electrón y el neutrino se podían considerar el mismo campo, pero cuidado, la componente izquierda del electrón y el neutrino se unen para la interacción débil, pero la componente derecha del electrón está separada. También comentaron que el quark arriba y el quark abajo se unen en un doblete, pero en realidad se unen sus componentes izquierdas, pues sus componentes derechas siguen separadas. Estas diferencias entre componentes izquierdas y derechas de los fermiones es lo que me lleva a considerar relevante en divulgación el contar las componentes individuales de los campos. Comentan Gastón y José que no les gusta contar partículas porque el número depende del criterio usado.

El gran problema de la estimación de la constante de Hubble usando la escalera de distancias (Cefeidas y Supernovas Ia) es el primer escalón, las distancias a las cefeidas medidas mediante la paralaje. Usando las paralajes de Gaia EDR3 (Early Data Release 3) para 37 cefeidas cercanas en la Vía Láctea se ha estimado la relación periodo-luminosidad (Ley de Leavitt). Dicha relación ha sido aplicada a cefeidas en la Gran Nube de Magallanes (LMC) y la Pequeña Nube de Magallanes (SMC) resultando una estimación con una incertidumbre mucho mayor que las estimaciones previas. Se sugiere que la diferencia podría estar en la metalicidad que introduce un error sistemático en la distancia de aproximadamente un 3 %. Los errores en las distancias a las cefeidas habrían sido subestimados.

Lo más relevante es que con un error tan grande, resulta prácticamente imposible determinar distancias extragalácticas con supernovas Ia con una precisión inferior al 1 % (necesaria para estimar la constante de Hubble con una precisión del orden del 1 %). El efecto de la metalicidad en la luminosidad de las cefeidas es un tema aún en discusión. Pero todo apunta a que puede ser una posible fuente del error sistemático en la escalera de distancias responsables de la aparente discrepancia entre medidas astrofísicas y cosmológicas de la constante de Hubble. El artículo es Kayla A. Owens, Wendy L. Freedman, …, Abigail J. Lee, «Current Challenges in Cepheid Distance Calibrations Using Gaia Early Data Release 3,» The Astrophysical Journal (ApJ) 927: 8 (02 Mar 2022), doi: https://doi.org/10.3847/1538-4357/ac479e, arXiv:2201.00733 [astro-ph.GA] (03 Jan 2022), doi: https://doi.org/10.48550/arXiv.2201.00733.

Nos toca hablar sobre un artículo aceptado en ApJ (Astrophysical Journal) que critica la imagen de EHT con forma anular del agujero negro supermasivo M87*. Ya hablé de este artículo en mi pieza «Sobre el artículo en Astrophysical Journal que critica la imagen anular de M87* obtenida por EHT», LCMF, 06 jun 2022. Hoy contamos con Iván, que nos cuenta su opinión al respecto (y anuncia que la colaboración EHT publicará una respuesta oficial). Nos destaca que los interferómetros nos dan unas magnitudes llamadas visibilidades; para obtenerlas se requiere una precisión enorme (por ejemplo, un error menor de un centímetro en la posición de los radiotelescopios, lo que requiere incorporar cosas tan sutiles como el movimiento de las placas tectónicas y multitud de otros pequeños efectos). Nos cuenta que aún así hay que tener en cuenta el efecto de la atmósfera y otros errores instrumentales, para lo que se usan las llamadas clausuras, pero un gran poder conlleva una gran responsabilidad, y deben ser usadas con mucho cuidado (porque si no pueden conducir a señales espurias).

Iván y su director de tesis doctoral publicaron en 2008 un artículo sobre los efectos de los errores en la autocalibración basada en las clausuras y cómo el ruido puede llevar a una señal espuria (ficticia). En el polémico artículo de Miyoshi et al. se toman los datos autocalibrados de EHT publicados y los recalibran usando como referencia un imagen con forma de punto; su resultado es esta imagen que destaca Iván en el vídeo de YouTube del programa. Esta imagen tiene la apariencia de dos ondas planas (dos conjuntos de líneas paralelas que son perpendiculares, como una retícula en forma de malla o red cuadrada); esta imagen indica que hay dos líneas de base mal calibradas responsables de esta señal concreta.

Según nos cuenta Iván, Miyoshi y sus colegas interpretan los puntos de la imagen denotados con letras (a, b, c, …, a*, b*, c*, …) como resultados de fuentes reales potenciales de la señal. Continúan el proceso de autocalibración para seleccionar cuáles de estos puntos son realmente reales, para ello eliminan algunas visibilidades que no cuadran con su idea inicial. Iván destaca que eliminar los datos que no te encajan (residuos) es algo que no se debe hacer nunca. Tras el nuevo proceso de autocalibración seleccionan los tres puntos en el centro de la imagen como fuentes reales de la señal. Así la imagen de M87* no sería un anillo, sino tres puntos que ellos interpretan como parte del chorro de M87. Iván afirma que le resulta chocante el análisis tan sesgado de los datos de EHT realizado por estos investigadores.

Un punto clave es el análisis de las clausuras (conté lo que son en mi pieza LCMF, 06 jun 2022). Las clausuras se deben calcular a partir de las visibilidades originales; pero si se promedian las visibilidades (para sesgar el análisis como hacen Miyoshi y sus colegas) las clausuras dejan de ser fiables y acaban conduciendo a la aparición de señales espurias en la imagen final. Según Iván, tras ver esta figura en el artículo ya no merece la pena leer el resto de su contenido (yo en mi pieza comento dicho contenido). Como yo decía en mi pieza, torturar los datos para sesgarlos hacia lo que quieres ver acaba conduciendo a que muestren lo que quieres ver.

Esta figura es la que obtienen Miyoshi y sus colegas en lugar de la figura en forma de anillo de EHT. En base a esta figura consideran que se puede observar el chorro y realizan una representación en una región mucho más grande que muestra dicho chorro (pero como cuento en mi pieza está construida a mano y no representa el contenido de los datos). Comenta Iván que la Colaboración EHT publicará una imagen del chorro de M87 cercano a M87* usando las líneas de base más cortas, que son las que permiten explorar las escalas más grandes. «El chorro de verdad lo veremos pronto», una gran noticia que nos anticipa. Para ver el chorro de M87 necesitas usar frecuencias bajas (a unos 86 GHz), pues se usas frecuencias altas (con los 230 GHz) se observa el anillo de la fotónesfera M87*.

Comentan Iván y Héctor que un interferómetro es un filtro de frecuencias espaciales que permite reconstruir la imagen usando un proceso de interpolación no lineal. El desafortunado artículo es Makoto Miyoshi, Yoshiaki Kato, Junichiro Makino, «The jet and resolved features of the central supermassive black hole of M 87 observed with EHT,» The Astrophysical Journal (accepted 05 May 2022) [68 pp.], arXiv:2205.04623 [astro-ph.HE] (10 May 2022), https://doi.org/10.48550/arXiv.2205.04623.

Nos cuenta Sara un artículo sobre redes neuronales convolucionales (CNN) aplicadas a la detección de glaucoma en imágenes del fondo del ojo. Nos explica que los axones de las neuronas del nervio óptico están sobre la retina, como tapándola, como al revés dice Alberto, uniéndose sobre un punto (el punto ciego) para salir del ojo hacia el cerebro. Cuando se inflaman estos axones neuronales se produce el glaucoma, por eso se usa un medidor de presión del ojo usando un chorrito de aire para detectar el glaucoma, pero este método tiene muchos falsos negativos. El uso de métodos de imagen evita este problema, pero las imágenes son difíciles de interpretar, de ahí la utilidad de usar inteligencia artificial.

Se ha publicado en BioMedical Engineering OnLine un artículo de Andres Diaz‑Pinto (Universitat Politècnica de València) y cinco coautores donde se han aplicado cinco modelos diferentes entrenados con ImageNet (VGG16, VGG19, InceptionV3, ResNet50 y Xception) para la detección automática del glaucoma. Son redes neuronales convolucionales muy profundas (con muchas capas) para los tres modelos básicos VGG, Inception y ResNet (esta última es la más profunda).

Destaca Sara que el conjunto de datos de aprendizaje es clave para que la red aprenda bien; uno malo dará resultados pésimos. Nos comenta que desde el punto de vista clínico la clave es estimar la llamada matriz de confusión, que compara las predicciones de la red con las evaluaciones de las imágenes realizadas por expertos (en estas matrices aparecen el porcentaje de verdaderos positivos, falsos positivos, verdaderos negativos y falsos negativos). En la detección del glaucoma destaca que no importan los falsos positivos, porque la detección es la primera fase de un proceso con varios pasos que puede detectar dicho error y corregirlo a posteriori. El gran problema son los falsos negativos y se debe minimizar su número en todo lo posible.

Los resultados se han validado usando cinco bases de datos públicas (1707 imágenes); Xception obtiene los mejores resultados, logrando un AUC (area under the curve) promedio de 0.9605 con un intervalo de confianza del 95.92–97.07 %, una especificidad promedio de 0.8580 y una sensibilidad promedio de 0.9346. En el artículo decidieron hacer pública una nueva base de datos clínicos de imágenes de fondo de ojo anotadas, llamada ACRIMA, con 705 imágenes de las que 396 son glaucomatosas y 309 son normales. Sara ha desarrollado una práctica para una asignatura de su máster en inteligencia artificial usando esta base de datos usando redes neuronales convolucionales de tipo Inception, Xception y ResNet.

Los artículos son Andres Diaz-Pinto, Sandra Morales, …, Amparo Navea, «CNNs for automatic glaucoma assessment using fundus images: an extensive validation,» BioMedical Engineering OnLine 18: 29 (20 Mar 2019), doi: https://doi.org/10.1186/s12938-019-0649-y; Thisara Shyamalee; Dulani Meedeniya, «CNN Based Fundus Images Classification For Glaucoma Identification,»  IEEE Xplore, ICARC 2022 (14 Apr 2022), doi: https://doi.org/10.1109/ICARC54489.2022.9754171.

Nos cuenta Alberto que se ha publicado en Nature la observación de un nuevo tipo de enlace químico entre iones y átomos de Rydberg. Un átomo de Rydberg es un átomo (normalmente alcalinos) con electrones en estados muy excitados (por ejemplo, n = 54). En estos átomos el electrón excitado solo ve un «protón» equivalente lejano en el núcleo, pues estos átomos son muy grandes. Son átomos similares a un átomo de hidrógeno del tamaño de un virus (centenares de nanómetros, cuando el hidrógeno mide unos 0.1 nanómetros). Para estudiar los átomos de Rydberg hay que usar temperaturas muy bajas, de decenas de microkelvin, porque su energía de ligadura es muy pequeña. Destaca Alberto que hay muchos tipos de moléculas ultrafrías usando átomos de Rydberg, pero que en el nuevo artículo se ha encontrado un nuevo tipo de estas moléculas que alcanza un tamaño de unas 5 micras entre el ión y el átomo.

El enlace molecular entre el ión y el átomo de Rydberg se comporta como si el electrón estuviera en un pozo de potencial parabólico, con lo que sus niveles de energía están equiespaciados (como en un oscilador armónico simple); esta figura ilustra dichos niveles de energía (en la parte derecha) equiespaciados.

Se han realizado experimentos con átomos de ⁸⁷Rb ultrafríos en una estado fundamental |g〉 = |5S1/2,F=2〉 a una temperatura de 20 μK. En el experimento se acerca un ión Rb⁺ (obtenido por fotoionización de un átomo de Rb) que se acerca al átomo de ⁸⁷Rb de Rydberg en estado |g〉, que se excita hasta un estado |e〉 = |54P1/2〉 por absorción de dos fotones; este proceso solo ocurre cuando la distancia del ión al átomo de Rydberg coincide con la distancia del enlace por un fenómeno de resonancia. Las observaciones se ajustan a las predicciones teóricas, lo que confirma la interpretación de las observaciones. El artículo es Nicolas Zuber, Viraatt S. V. Anasuri, …, Tilman Pfau, «Observation of a molecular bond between ions and Rydberg atoms,» Nature 605: 453-456 (18 May 2022), doi: https://doi.org/10.1038/s41586-022-04577-5; Markus Deiß, Shinsuke Haze, Johannes Hecker Denschlag, «Long-Range Atom–Ion Rydberg Molecule: A Novel Molecular Binding Mechanism,» Atoms 9: 34 (21 Jun 2021), doi: https://doi.org/10.3390/atoms9020034. Alberto también recomiendo sobre moléculas de Rydberg el artículo pionero Christophe Boisseau, Ionel Simbotin, Robin Côté, «Macrodimers: Ultralong Range Rydberg Molecules,» Phys. Rev. Lett. 88: 133004 (19 Mar 2002), doi: https://doi.org/10.1103/PhysRevLett.88.133004.

Fuente: Amanda Yoho para Starts with a Bang de Ethan Siegel. https://medium.com/starts-with-a-bang/the-smoking-gun-of-the-big-bang-b1d341a78cc0.

Y pasamos a Señales de los Oyentes. Enano Cabrón​ pregunta: «Entonces ¿necesitamos más radiotelescopios? ¿O eliminar los defectuosos?» Contesta Héctor que se necesitan más radiotelescopios; aunque sean menos sensibles que otros ya disponibles, pues tiene mayor impacto el número de líneas de base, y que sus ángulos y longitudes sean muy diferentes, que la sensibilidad de cada antena. En el chat de YouTube el propio Ivan Marti-Vidal​ contesta: «¡Cuántos más radiotelescopios, mejor!» 

Sergio Llorente pregunta: «¿Qué mecanismo hay en el origen del universo para generar la misma cantidad de electrones y protones para que sea neutro?» Contesta Gastón que por la conservación de la carga se espera que un universo neutro primordial, con igual número de partículas y de antipartículas, se mantenga neutro conforme se expande. Yo comento que hay un artículo de Ethan Siegel que estudia la evolución con la expansión de la diferencia entre el número de protones y electrones; su resultado es que esta diferencia primordial  se reduce debido a la expansión cósmica. La diferencia primordial que podría tener su origen en alguna transición de fase potencial que introdujera una asimetría entre el número de protones y electrones, como violaciones del número bariónico. Recomiendo leer a Ethan Siegel, «Ask Ethan: Why is the Universe electrically neutral?» Starts With A Bang, 15 Apr 2022. Su artículo es E. R. Siegel, J. N. Fry, «Can Electric Charges and Currents Survive in an Inhomogeneous Universe?» arXiv:astro-ph/0609031 (01 Sep 2006), doi: https://doi.org/10.48550/arXiv.astro-ph/0609031

Finalmente, Sara nos anuncia que firmará el libro «Genes» (del que ella es una de las autoras) el viernes 10 de junio en la Feria del Libro de Madrid.

¡Qué disfrutes del podcast!



6 Comentarios

  1. Hola, en la primera imagen sobre los campos cual es la fuente para leer mas (google images/lens no me da coincidencias) o podrías explicar mas sobre esta, es que solo entiendo donde dice 36 quarks y 8+3+1 pero no entiendo donde dice 9+3, (3×2+3×2+2+1+0)x3x2=90 y (8+3+1)x2+4=28, gracias y saludos

    1. Dabed, la fuente es una de las charlas de Mikhail Shaposhnikov sobre el modelo νMSM de hace más de quince años (no recuerdo cuál). Desde 2005 solía incluir esta diapositiva en todas sus charlas sobre el νMSM (daba varias al año); por ejemplo, Mikhail Shaposhnikov, «Neutrino oscillations, dark matter and baryon asymmetry of the Universe as physics at the electroweak scale,» Saclay 2009 [PDF slides].

      Obviamente, la fuente de Shaposhnikov es cualquier libro sobre el modelo estándar. No sé si habrás leído alguno, pero todos incluyen la fuente de esta información. Todos; aunque ninguno dice «vamos a contar partículas…», como yo suelo divulgar. Te recomiendo mi pieza «Vamos a contar partículas, tralará», LCMF, 22 ago 2013.

      Dices que no entiendes cuando dice 9+3, porque en realidad lo que no entiendes es el color rojo; son 9 campos en el SM y 9+3 en el νMSM, en el que se añaden tres neutrinos de quiralidad derecha. En el modelo estándar hay 45 x 2 = 90 campos fermiónicos (que han sido observados), cuando en el νMSM hay 48 x 2 = 96 campos fermiónicos (de los que 6 aún no han sido observados, si es que existen).

      Para evitar confusiones entre los lectores, he modificado la figura eliminando los números en color rojo; espero que así quede más clara la cuenta.

  2. Francis, respecto a la pregunta de los oyentes sobre la carga neutra total del Universo.

    ¿Tiene carga neutra el Unverso observable? ¿para todo observador?

    1. Hasta donde sabemos el universo observable es eléctricamente neutro: se estima que hay unos 3 x 10⁸⁰ protones y un número similar electrones. Se cree que las propiedades del universo son las mismas que las del universo observable (principio cosmológico), luego todo observador estará en un universo observable propio eléctricamente neutro.

      Ethan Siegel, «Ask Ethan: Why is the Universe electrically neutral?» Starts With a Bang, 16 Apr 2022, ofrece un argumento por el cual cualquier asimetría de carga primordial (iniciada por algún mecanismo más allá del modelo cosmológico de consenso, en el que el universo parte eléctricamente neutro tras el recalentamiento) acabaría desapareciendo a un ritmo exponencial por el acoplamiento entre gravitación y electromagnetismo, con lo que el universo observable (y el universo) deben ser eléctricamente neutros en la actualidad.

      1. Miguel, no sé dónde se dice, luego tampoco qué se quiere decir cuando se dice. Ahora bien, en el modelo estándar los fotones no tienen masa (la simetría gauge U(1) implica que su masa tiene que ser exactamente cero). Sin embargo, verificar de forma experimental que un parámetro es cero es imposible; lo único que se puede hacer es ofrecer una cota superior que sea un número muy pequeño. Por ello es imposible descartar que en una futura teoría más allá del modelo estándar no se prediga que el fotón tiene una masa extremadamente pequeña, pero no nula. O incluso es imposible descartar que una futura medida observacional de la masa del fotón conduzca a un valor no nulo (extremadamente pequeño, eso sí), que lleve a la necesidad de ir más allá del modelo estándar. Obviamente, es muy improbable que esto vaya a ocurrir en el siglo XXI, pero nadie puede prever lo que pasará en los siglos venideros.

        1. Miguel, lo más esperado es que todas las interacciones del modelo estándar se unifiquen a alta energía una teoría de gran unificación (GUT). Casi todas las GUT predicen a baja energía la simetría gauge U(1) del electromagnetismo, con un fotón sin masa, y al menos una segunda simetría gauge tipo U(1) masiva, es decir, que correspondería a un nuevo «fotón con masa» (que se suele llamar fotón oscuro). La existencia de dimensiones extra per se no implica violaciones de la conservación de la carga eléctrica (el campo gauge U(1) del modelo estándar puede quedar inalterado). Y llaman «simetría gauge imperfecta» a la existencia de términos de alto orden que violen la simetría gauge; se están buscando estos términos «violadores» porque solo se pueden poner cotas superiores a sus coeficientes (que como la masa del fotón deberían ser exactamente nulos), lo que se usa como tests de precisión del modelo estándar.

Deja un comentario