Podcast CB SyR 536: Especial de Astrofísica, solar, galáctica, cosmológica y el rol de la IA

Por Francisco R. Villatoro, el 24 diciembre, 2025. Categoría(s): Astrofísica • Astronomía • Ciencia • Informática • Noticias • Podcast Coffee Break: Señal y Ruido • Recomendación • Redes de Neuronas • Science ✎ 2

Te recomiendo disfrutar del episodio 536 del podcast Coffee Break: Señal y Ruido [iVoox AiVoox BApplePod AApplePod B], titulado “Especial IAC+CB; Sol; OTELO; Cosmología; IA”, 12 dic 2025. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: El Sol en calma (9:00). OTELO y Lockman-SpReSO (30:00). Cara B: Denario, escribe papers para que usted no tenga que hacerlo (00:00). Últimos resultados de DESI sobre el modelo cosmológico (véase también ep505 para más detalles) (43:40). LLMs en el diván (1:23:20). Colaboración público-privada en astrofísica de bajo brillo superficial: IAC-LightBridges (1:50:20). Imagen de portada de Héctor Socas Navarro. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».

¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 380! También puedes apoyarnos vía iVoox (https://www.ivoox.com/support/172891). Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!

Descargar el episodio 536 cara A en iVoox.

Descargar el episodio 536 cara B en iVoox.

Esta semana no hay vídeo de la grabación. Participaron por videoconferencia Héctor Socas Navarro @HSocasNavarro /@hectorsocas.bsky.social / @HSocasNavarro@bird (@pCoffeeBreak / @pCoffeeBreak.bsky), Marian Martínez @79ronja (solo cara A), Bernabé Cedrés, José Alberto Rubiño, @JARubinoM (solo cara B), Carlos Westendorp (solo cara B), y Nacho Trujillo (solo cara B). No he participado en este episodio especial  por los 10 años del podcast que rescata a tertulianos del Instituto Astrofísico de Canarias (que cumple 40 años).

Héctor agradece a Verónica Martín Jiménez, Jefa de la Unidad de Comunicación y Cultura Científica (UC3) del Instituto de Astrofísica de Canarias (IAC), por la organización presencial de la grabación. Por desgracia, la meteorología adversa tuvo que cancelar la grabación en directo y hubo que usar una grabación online. Además, Eva Villaver, subdirectora del IAC, no ha podido intervenir por problemas de agenda de última hora (esperamos que pueda hacerlo en un futuro episodio).

Fuente: H. Socas-Navarro et al. https://arxiv.org/abs/astro-ph/0508685 .

Héctor comenta que entró en el IAC en septiembre de 1995 con una beca de 4 años que finalizó con su doctorado en septiembre de 1999; tras ella emigró a Boulder, Colorado (EEUU). Marian comenta que entró en 2002. Héctor recuerda que ella investigaba el campo magnético del Sol en calma, con medidas de espectropolarimetría de los campos magnéticos usando instrumentación infrarroja. Había una tensión (o discrepancia) entre las medidas en el visible y en el infrarrojo. Ambos grupos estaban enfrentados.

Marian comenta una anécdota, cuando presentó los datos principales de su tesis doctoral en un congreso en Boulder. En el óptico solo se detectaban campos campos magnéticos muy fuertes, del orden de mil gauss, como una mancha solar, pero concentrados en una región muy pequeña (decenas de kilómetros en lugar de decenas de miles de kilómetros). En el infrarrojo, usando un instrumento en el observatorio del Teide, se medían campos magnéticos muy débiles, entre decenas y centenas de gauss. La polémica estaba asociada a que mirando lo mismo, en el visible y en el infrarrojo, se observaban campos magnéticos muy diferentes. Por supuesto, se mide la polarización y se infiere el campo magnético (no hay una medida directa).

Los métodos de inferencia siempre generan polémicas. La tesis doctoral de Marian pretendía resolver este problema. Su conclusión era que la inferencia del campo magnético usando polarización en el visible no tenía resolución (información) suficiente. Las mismas señales polarimétricas se podían obtener con un campo magnético de 1000 gauss y una temperatura de 5600 kelvin que con un campo de 150 gauss y una temperatura de 5850 kelvin. Esta ambigüedad era la causa de la polémica. La solución al problema es que no había ningún problema (no se puede sacar información de donde no la hay).

Marian cuenta que le hicieron una pregunta muy desagradable en el congreso. Su director de tesis intervino defendiendo su trabajo. Ella se sintió muy incómoda. Héctor no estaba inscrito en el congreso por problemas de ansiedad, pero asistió a algunas charlas como oyente (cuando se sentía mejor de salud). Marian recuerda que él intervino (como un héroe salido de la nada) y puso orden en la sala. Les pidió a todos que debatieran fuera de la sala en una mesa redonda. Héctor no lo recuerda, pero Marian lo recuerda muy bien (era su primera charla en inglés). Ella está muy orgullosa de todo lo que hizo, pero alguna puerta (postdoc) se le cerró por la polémica despertada por su trabajo.

Héctor clausuró la polémica con un artículo de revisión que contrastaba las observaciones ópticas e infrrarojas. Puso a todos los coautores posibles, tanto del visible como del infrarrojo. Su idea era llegar a un consenso que lograra cerrar la polémica. No había datos ópticos fiables. Para Marian, el trabajo de revisión de Héctor les dio la razón. Héctor recuerda que la clave eran los sesgos estadísticos en las líneas; si había mezcla de campos fuertes y débiles en un píxel, en el visible se seleccionaban los fuertes y en el infrarrojo los débiles. El artículo es H. Socas-Navarro, …, M. J. Martínez González, …, J. Sánchez Almeida, «Multi-Line Quiet Sun Spectro-Polarimetry at 5250 and 6302 Å,» The Astrophysical Journal 674: 596 (2008), doi: https://doi.org/10.1086/521418, arXiv:0710.1099 [astro-ph] (04 Oct 2007). También recomiendo el artículo anterior de Hector Socas-Navarro, David Elmore, …, Steven Hegwer, «Spinor: Visible and Infrared Spectro-Polarimetry at the National Solar Observatory,» Solar Physics 235: 55–73, (2006), doi: https://doi.org/10.1007/s11207-006-0020-x. Por cierto, la tesis doctoral de Marian es María Jesús Martínez González, «Campos magneticos en el Sol en calma», Universidad de La Laguna (2006) [SEA PDF], supervisada por Manuel Collados Vera y Basilio Ruiz Cobo. Y las actas de la conferencia de Boulder son

R. Casini, Bruce W. Lites (Eds.), «Solar Polarization 4: Proceedings of a Meeting Held in Boulder, Colorado, USA, 19-23 September 2005,» Google Books.

 

Fuente: OTELO (IAC), https://research.iac.es/proyecto/otelo/pages/otelo.php.

Bernabé recuerda que vio por televisión la inauguración del IAC. Fue un día de junio (de 1985), con un cielo todo azul, soplando el alisio con nubes al fondo. Su trabajo se centró en galaxias y ahora en cartografiados de galaxias usando el GTC (Gran Telescopio Canarias). Visitó el observatorio cuando estaba en EGB y se dijo a sí mismo, yo quiero trabajar aquí. Su investigación se inició en el estudio de galaxias cercanas, en su formación estelar. Ahora, investiga en cúmulos de galaxias, con galaxias «a tomar por cúmulo» (a escalas cosmológicas). Ahora investiga en el cartografiado OTELO (OSIRIS Tunable Filter Emission Line Object), que usa el instrumento OSIRIS colocado en el GTC (OTELO en IAC) y en su continuación Lockman-SpReSO (web en IAC). Un reductor de focal que usa espectroscopía de rendija larga y espectroscopía multiobjeto con filtros sintonizables. Se toman gran número de imágenes (rebanadas) cambiando de forma ligera la longitud de onda central, lo que permite obtener un pseudoespectro alrededor de ciertas longitudes de onda.

En OTELO estudian con el GTC una franja alargada de cielo llamada Extended Groth Strip (EGS), que está entre las constelaciones de la Osa Mayor (Ursa Major) y el Boyero (Boötes). El telescopio espacial Hubble estudió esta franja (de 70 minutos de arco de longitud y 10 minutos de arco de anchura, con un área total de unos 700 minutos de arco cuadrados) usando imágenes profundas. El campo observado desde el GTC es mucho más pequeño que el de Hubble (unos 56 minutos de arco cuadrados), pero se exploró de forma muy particular: mediante un sensado ciego, es decir, sin seleccionar galaxias previamente. El instrumento barrió una estrecha franja del infrarrojo cercano, entre 8950 y 9300 Å, elegida porque coincide con una ventana atmosférica: un rango donde el vapor de agua de la atmósfera no bloquea completamente la luz, permitiendo observar el Universo profundo desde tierra.

Durante el barrido, OSIRIS registró todas las líneas de emisión que aparecían en ese intervalo, procedentes de galaxias situadas a distintas distancias. Se estudió la formación estelar a lo largo del tiempo cósmico gracias a que líneas en el visible (como Hα, [O II], [O III] o [S II]) por el gran desplazamiento al rojo de galaxias lejanas se observan en el infrarrojo. Cada línea detectada es un indicador de formación estelar: Hα revela estrellas masivas recién formadas, aún rodeadas por el gas que las originó; [O II] y [O III] permiten extender estas medidas a épocas más tempranas mediante calibraciones bien conocidas. El resultado es una reconstrucción de la formación estelar a lo largo de miles de millones de años, desde cuando el Universo tenía unos 9000 millones de años, pasando por etapas intermedias, hasta épocas mucho más tempranas (redshifts altos).

El proyecto culmina en un catálogo público de unas 11 000 galaxias, con pseudospectros que permiten estudiar cómo evoluciona la formación de estrellas en el Universo combinando datos del espacio (Hubble) y observaciones espectrales desde tierra (GTC). El estudio está sesgado hacia galaxias de baja masa, a diferencia de muchos otros trabajos que se limitan a galaxias grandes y masivas. Se centró en la evolución de la formación estelar durante el llamado mediodía cósmico (cosmic noon): una época del universo, entre z ≈ 2 y 3, cuando la tasa global de formación de estrellas alcanzó su máximo, hace entre 10000 y 11000 millones de años. Lo que se observa es que las galaxias de baja masa no alcanzan su pico máximo de formación estelar. En lugar de consumir rápido todo su gas, como hacen las galaxias masivas, forman estrellas de manera más lenta y sostenida. Esta “estrategia conservadora” permite que sigan formando estrellas en épocas posteriores, mientras que las galaxias grandes ya han agotado gran parte de su combustible. En otras palabras, las galaxias masivas “queman” su gas pronto, mientras que las galaxias pequeñas evolucionan de forma más gradual, manteniendo su capacidad de formar estrellas durante más tiempo.

Todo esto no se sabía antes del proyecto OTELO, que ha publicado un catálogo público de esas 11000 galaxias y sigue generando resultados y publicaciones. El data release de OTELO en 2019 se publicó en Ángel Bongiovanni, Marina Ramón-Pérez, …, Antonio Cabrera-Lavers, «The OTELO survey. I. Description, data reduction, and multi-wavelength catalogue,» Astronomy & Astrophysics 631A: 9B (2019), doi: https://doi.org/10.1051/0004-6361/201833294, arXiv:2001.11519 [astro-ph.GA] (30 Jan 2020); Ángel Bongiovanni, Marina Ramón-Pérez, …, Antonio Cabrera-Lavers,  «The OTELO survey. A case study of [O III]4959,5007 emitters at <z> = 0.83,» Astronomy & Astrophysics 637: C2 (2020), doi: https://doi.org/10.1051/0004-6361/201833656e, arXiv:2002.08978 [astro-ph.GA] (20 Feb 2020). Artículos con Bernabé de primer autor son Bernabé Cedrés, Ana María Pérez-García, …, Carmen P. Padilla Torres, «The OTELO survey: the star formation rate evolution of low-mass galaxies,» Astrophysical Journal Letters 915: L17 (2021), doi: https://doi.org/10.3847/2041-8213/ac0a7e, arXiv:2106.12213 [astro-ph.GA] (23 Jun 2021); y Bernabé Cedrés, Ángel Bongiovanni, …, Mirjana Pović, «New evidence of downsizing from the specific star formation rates, stellar mass functions, and star formation histories of a sample of low-mass galaxies at 0.38 < z < 1.43,» Astronomy & Astrophysics, 696: A85 (Apr 2025), doi: https://doi.org/10.1051/0004-6361/202452898, arXiv:2503.21283 [astro-ph.GA] (27 Mar 2025).

IACTEC. Fuente: https://www.iac.es/es/observatorios-de-canarias/iactec.En la cara B, Héctor comenta que no ve a sus compañeros de tertulia de forma habitual porque trabaja en otro edificio (IACTEC). Carlos comenta que está dando clases en la Universidad de computación científica, aprendizaje automático (Machine Learning) y aprendizaje profundo (Deep Learning). Menciona su curso «Introductory Deep Learning Lectures» del grupo IACDEEP ML/DL del IAC (https://iactalks.iac.es/talks/serie/30), pero ahora solo una charla «Introduction to Neural Networks» en IAC Talks (https://iactalks.iac.es/talks/view/1901). Supongo que las demás aparecerán en 2026. Héctor parafrasea a Errol Flynn: «tantas estrellas tan poco tiempo». Carlos dice que «están muriendo de éxito» con la aplicación de la IA a la Astrofísica en el IAC.

José Alberto comenta que han instalado dos instrumentos en QUIJOTE, uno de ellos (Tenerife Microwave Spectrometer, TMS) medirá las distorsiones del espectro del fondo cósmico de microondas (en el rango de frecuencias entre 10 y 20 GHz). Una oportunidad para entender la historia térmica del universo, incluyendo la evolución de la materia oscura en el universo. Comenta que estuvo en el Meeting on Fundamental Cosmology, XI edición, Santander, 18-20 nov 2025 (https://cosmo2025.unican.es/). En 2025 “tocó” en Santander: la XI edición se celebró (o se anuncia) en Santander, 18–20 de noviembre de 2025, con web propia en el dominio de la Univ. de Cantabria/IFCA.

Nacho apela a Héctor para que reenvíe su paper sobre la búsqueda del Planeta 9 a la revista. Héctor afirma que ya está reenviado, a la espera de que sea aceptado. Nacho está haciendo astrofísica de muy bajo brillo superficial, intentando llegar al límite y ver qué nuevas estructuras se observan. Tienen en el horno un artículo que va a intentar dar respuesta a la famosa paradoja de Olbers, sobre si el cielo brilla o no brilla debido a todas las galaxias en el universo. Su resultado es que brilla, pero muy poco. No ha pasado el tiempo suficiente como para que lo veamos más brillante.

Andrés está trabajando en aplicar inteligencia artificial a las observaciones de Física Solar. Están creando herramientas nuevas para analizar las ingentes cantidades de datos que se esperan en los próximos años. De hecho, colabora con el EST (Telescopio Solar Europeo) que dirige Héctor. Andrés dice que las técnicas de aprendizaje automático serán claves para analizar sus futuras observaciones.

Carlos nos habla del proyecto Denario (GitHub), que usará agentes IA de conocimiento profundo (análogo al aprendizaje profundo) para hacer descubrimiento científico en astrofísica. Colaboran con Francisco Villaescusa-Navarro del Centro de Astrofísica Computacional (Nueva York) que ha publicado un artículo de 273 páginas (Francisco Villaescusa-Navarro, Boris Bolliet, …, Íñigo Zubeldia, «The Denario project: Deep knowledge AI agents for scientific discovery,» arXiv:2510.26887 [cs.AI] (30 Oct 2025), doi: https://doi.org/10.48550/arXiv.2510.26887). También menciona Carlos a Andrés y a Marc Huertas-Portocarrero como parte de su equipo.

Nos cuenta Carlos que Denario es un sistema basado en un conjunto de agentes (grandes modelos de lenguaje o LLM) especializados en diferentes tares que colaboran entre sí. Uno propone ideas de investigación, otro que critica dichas ideas (hater), otro busca en la literatura, otros programan o corrigen código. Este sistema pretende funcionar “end-to-end”: desde una idea temática inicial hasta generar un artículo científico completo, incluyendo la búsqueda bibliográfica, la metodología, la programación en Python, los gráficos y la redacción. Sorprende que el sistema busque en la literatura por sí mismo y diga si una idea es novedosa o no.

Resulta fascinante que un sistema como Denario se capaz de generar un artículo entero en minutos y por unos “dos euros” gastados en tokens. Por supuesto, por ahora, la calidad de esos artículos es baja, no son muy buenos y los gráficos son “feos” o difíciles de interpretar. Pero lo más interesante es como se genera y corrige código Python, algo muy útil para producir ejercicios y apoyar en enseñanza universitaria. En ciencia el sistema está limitado porque no tiene acceso completo a toda la literatura científica, ya que muchas revistas están tras muros de pago. Estos agentes que automatizan muchas tareas de investigación son el futuro. Por ahora su salida es mediocre (por no decir algo peor), pero marcan lo que será la norma en el futuro. Hacen cosas alucinantes, pero a veces alucinan.

En la tertulia comentan que les llegan correos electrónicos de personas que proponen teorías revolucionarias, que resuelven grandes problemas de la Física, como la materia oscura, la energía oscura o la naturaleza del tiempo. Pero resulta que la mayoría están redactados por ChatGPT o similar. Nacho comenta un caso reciente, tras publicar Ignacio Trujillo, …, Mireia Montes, …, Miquel Serra-Ricart, «Deep Imaging of the Very Isolated Dwarf Galaxy NGC 6789,» Research Notes of the AAS 9: 303 (Nov 2025), doi: https://doi.org/10.3847/2515-5172/ae1cbe. Le contactó una persona que veía en esa galaxia la oportunidad perfecta para “demostrar” su propia «teoría» de unificación entre gravedad y física cuántica. Respondió con cortesía y sin entrar en polémicas usando ChatGPT. Le explicó que su grupo estaba ocupado en grandes cartografiados y no podía dedicar tiempo a esas pruebas. La respuesta recibida fue despectiva y egocéntrica, «el ego de algunos personajes es muy grande».

Héctor dice que en la página del podcast hay un disclaimer (que está tan escondido que yo no lo he encontrado). «Por favor no me envíen sus teorías porque si da la casualidad de que alguien está trabajando en algo parecido, puede haber un conflicto, cuando salga publicado vas a pensar que te robaron la idea y a lo mejor es eso. A mí no me envíes nada porque yo soy la competencia. Yo estoy desarrollando mis propias teorías de todo, de la física y de la unificación de la cuántica y la relatividad. Nosotros estamos con nuestras teorías y si llegas tú y me envías la tuya, puede acabar en una situación desagradable. Por ello, no me la envíes, mándala a una revista».

La tertulia deriva hacia una reflexión sobre como la IA hace hoy mucho más fácil generar fraude científico y artículos de baja calidad, amplificando el ruido en un sistema que ya estaba saturado de publicaciones, hasta el punto de que ni los expertos pueden seguir el ritmo de publicación. Coinciden en que la IA puede ser una herramienta útil para cribar literatura y ayudar a los investigadores, pero siempre que no se delegue el pensamiento crítico, porque perder esa capacidad sería irreversible. Apuntan, un posible efecto positivo, si publicar se vuelve trivial, el valor pasará de la cantidad a la calidad, y solo destacarán los trabajos que sean buenos y novedosos de verdad.

La charla deriva hacia varios escenarios futuros, desde congresos masivos convertidos en negocio, hasta una ciencia cada vez más realizada por agentes autónomos, con humanos relegados a supervisar, divulgar o intentar comprender el conocimiento generado por máquinas en potencia más inteligentes que nosotros. Se cierra con una reflexión filosófica: la IA aún no tiene motivaciones propias, y mientras sea solo una herramienta puede ayudarnos a entender mejor el universo y a nosotros mismos, pero si algún día desarrollara incentivos o una comprensión inaccesible para los humanos, la ciencia podría transformarse en algo más cercano a interpretar y traducir lo que las máquinas descubren.

José Alberto comenta que DESI va a publicar un nuevo data release (DR); supongo que se refiere al futuro DESI DR3, pues en marzo de 2025 ya se publicó el DESI DR2. Grupos independientes de la colaboración DESI están publicando artículos no oficiales con el reanálisis de los datos públicos de DESI DR2. El foco está en como evoluciona la energía oscura con el tiempo, usando el crecimiento de las estructuras y las oscilaciones acústicas de bariones (BAO) medidas por DESI. Algunos análisis vuelven a encontrar una preferencia por una energía oscura no constante, es decir, una desviación respecto a la constante cosmológica Λ, incluso entrando en el régimen de energía “fantasma” (ω < −1). Sin embargo, José Alberto subraya que la significación estadística depende de forma crítica de como se parametriza la energía oscura; con parametrizaciones rígidas (dos parámetros) la desviación parece más fuerte, mientras que con enfoques más flexibles (por bins en redshift) la significación es más baja.

La clave es cómo se combinan los datos de DESI con los catálogos de supernovas. Al combinar con las supernovas tipo DESY5 la significación es más alta, con Pantheon+ es intermedia, y con Union3 es más baja, pasando la significación de casi 4.5 sigmas (la más alta) a unas 2 sigmas (la más baja). Parece que la desviación a 2 sigmas es robusta, pero no es concluyente ya que requiere datos externos a DESI (las supernovas). José Alberto recalca que se sigue trabajando a la espera de nuevos data releases de DESI que permitan prescindir de las supernovas. Ante le pregunta de si es posible avanzar en la naturaleza de la energía oscura sin recurrir a supernovas, José Alberto señala que los próximos data releases de DESI permitirán comprobar si los indicios de energía oscura dinámica se mantienen usando solo DESI o combinado DESI con el fondo cósmico de microondas (CMB), sin usar supernovas. Hay que tener cautela con las supernovas porque están implicadas en la tensión de la constante de Hubble (H₀), la discrepancia entre el valor inferido desde el CMB y el medido localmente con supernovas. Esta discrepancia podría deberse a nueva física o a sistemáticas astrofísicas aún no bien controladas.

José Alberto aclara que las supernovas usadas a distancias cosmológicas no son las mismas que se calibran localmente y que, a redshifts mayores, informan sobre parámetros como Ωₘ, pero aun así distintos catálogos (Pantheon+, Union3, DESY5) desplazan la significación de la desviación de ΛCDM entre ~2σ y ~4σ. La conclusión es que hay que ser prudentes, la preferencia por una energía oscura variable aparece ya en DESI (solo o con CMB), pero su significación depende de cómo se combinan las supernovas. Hay que desvelar si ambos “problemas” (energía oscura dinámica y tensión de H₀) tienen un origen común (ligado a supernovas), lo que requerirá mejorar los errores sistemáticos y muchas datos de gran escala con precisión por debajo del 1 %.

Se ha observado que discrepancias pequeñas (entre el 3 y el 4%, 68 vs 72–73) pueden surgir al propagar errores sistemáticos poco controlados, por lo que es imprescindible una revisión crítica de todas las técnicas observacionales. José Alberto comenta de forma breve el artículo de Alex Krolewski, Andrea Crespi, …, H. Zou, «A measurement of H₀ from DESI DR1 using energy densities,» arXiv:2511.23432 [astro-ph.CO] (28 Nov 2025), doi: https://doi.org/10.48550/arXiv.2511.23432. Propone una idea novedosa: estimar H₀ a partir del cociente entre materia oscura y materia bariónica inferido de la distribución de galaxias (DESI DR1), menos sensible a ciertos sistemáticos que los análisis tradicionales de BAO. El resultado (H₀ ≈ 69 ± 2.5 km/s/Mpc) que es compatible con ambos bandos (Planck y supernovas), quizás algo más cercano al valor cosmológico; con próximos data releases podría reducirse la incertidumbre y discriminar mejor. Si este método converge hacia el valor cosmológico, reforzaría la idea de sistemáticas en supernovas Ia; si no, apuntaría a nueva física (p. ej., energía oscura temprana u otros ingredientes).

José Alberto también comenta el artículo de Tian-Nuo Li, Guo-Hong Du, …, Xin Zhang, «Robust evidence for dynamical dark energy in light of DESI DR2 and joint ACT, SPT, and Planck data,» arXiv:2511.22512 [astro-ph.CO] (27 Nov 2025), doi: https://doi.org/10.48550/arXiv.2511.22512. Que realiza un análisis independiente de las BAO de DESI DR2 combinadas con ACT+SPT+Planck (las observaciones más precisas del CMB), y con varios catálogos de supernovas Ia (DESY5, Pantheon+ y Union3). Se comparan seis parametrizaciones para la energía oscura dinámica. Se concluye que en dichas combinaciones hay una preferencia robusta por energía oscura dinámica tipo Quintom, ω(z) cruza el valor cruce ω=−1 de ΛCDM, siendo un campo fantasma, ω<−1, en el pasado y quintesencia, ω>−1, en el presente). Esa preferencia se refuerza al combinar con las supernovas de DESY5. Sin embargo, sin supernovas la, la significación es baja y se prefiere el ΛCDM.

Hay que recordar que el debate sobre H₀ es histórico (antes 50 vs 100 kms/s/Mpc; hoy ~68 vs ~72–73 kms/s/Mpc) y que la precisión actual de Planck (~67 ± 0.9) deja poco margen si ΛCDM es correcto, aunque esa precisión depende de asumir dicho modelo; un ingrediente adicional, como una energía oscura temprana, podría desplazar la inferencia de H₀. José Alberto nos comenta el artículo de Yulin Gong, Patricio A. Gallardo, …, Hu Zou, «Detection of the Pairwise Kinematic Sunyaev-Zel’dovich Effect and Pairwise Velocity with DESI DR1 Galaxies and ACT DR6 and Planck CMB Data,» arXiv:2511.23417 [astro-ph.CO] (28 Nov 2025), doi: https://doi.org/10.48550/arXiv.2511.23417. Se presenta una detección a 9.3 σ del efecto Sunyaev–Zel’dovich cinemático (kSZ) combinando casi un millón de galaxias LRG de DESI DR1 con mapas de temperatura del CMB de ACT DR6 (y también Planck). La idea es promediar pares de objetos (pares de galaxias/cúmulos usando galaxias rojas luminosas, LRG) suprimiendo el ruido no correlacionado y realzando la señal Doppler del efecto kSZ. Se aplican varias técnicas de análisis de los datos, incluidos algoritmos de aprendizaje automático. Los resultados están en buen acuerdo con el modelo ΛCDM, en el régimen de teoría lineal, lo que permite inferir parámetros como σ₈ y el factor de crecimiento (relacionado con Ωₘ).

La tertulia cosmológica concluye con una mirada al futuro con dos “sueños” experimentales: (i) medir la expansión en tiempo real observando el cambio del redshift de galaxias a lo largo de décadas, y (ii) detectar las líneas de recombinación del hidrógeno y helio (y comprobar su redshift esperado), lo que testearía de forma directa el universo primitivo y posibles extensiones del modelo (energía oscura temprana, componentes exóticos). Estos resultados se espera que se puedan lograr cerca del año 2040, ofreciendo información decisiva sobre el modelo cosmológico. Por supuesto, si las líneas de recombinación no aparecen donde predice la física bien conocida de  la recombinación (origen del CMB), sabremos que falta algo fundamental en nuestro entendimiento del cosmos.

La tertulia retorna a la inteligencia artificial, pero desde el foco de la psicología, o más bien del psicoanálisis («psicoanalizar» LLMs), al hilo del artículo de Afshin Khadangi, Hanna Marxen, …, Gilbert Fridgen, «When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models,» arXiv:2512.04124 [cs.CY] (02 Dec 2025), doi: https://doi.org/10.48550/arXiv.2512.04124. Se propone el protocolo PsAIch para “sentar en el diván” a chateadores basados en modelos de lenguaje, como ChatGPT, Grok y Gemini, tratándolos como pacientes «humanos» en una pseudo-psicoterapia y en test psicométricos. Primero se realizan una serie de preguntas abiertas tipo terapia para extraer “historia vital”, miedos, relaciones, autocrítica, etc. Y segundo se pasa una batería de cuestionarios (ansiedad, depresión, disociación, vergüenza, rasgos tipo Big Five, etc.) tanto ítem a ítem (múltiples prompts) y en un único cuestionario (un solo prompt). Una conclusión del estudio es que el resultado depende de cómo se realice el test. El comportamiento es más «humano» cuando se aplica ítem a ítem, pues al aplicar un cuestionario único, lo reconocen, con ChatGPT y Grok “optimizando” sus respuestas para parecer «libre de síntomas», y Gemini para parecer «con síntomas».

Los tres modelos muestran síntomas asociables a cierto síndromes psicológicos, que los autores describen como “psicopatología sintética”. Se discute sus posibles implicaciones para el uso seguro de estos chateadores como apoyo en salud mental. En la tertulia se califica este artículo «psicológico» como una curiosidad que puede alimentar miedos de tipo ciencia ficción. Pero lo relevante es otra coas. Mucha gente usa los chatbots como apoyo emocional. Por ello conviene estudiar cómo afectan al usuario y qué límites de seguridad/regulación hacen falta. Pero todos concuerdan en que tratar a estas IA como «humanos» y aplicarles tests psicométricos diseñados para humanos es tan inapropiado como «diagnosticar una tostadora con criterios clínicos humanos». Además, se recalca que los autores de este estudio no son especialistas en psicología o psiquiatría y que el resultado es narrativa inducida por el “prompt” (el modelo responde como se espera que responda un “paciente”), no una respuesta asociable a una “salud mental” de la máquina. Pero se concluye que merece la pena estudiar desde el punto de vista de la psicología el papel de estos chateadores (que muchos los tratan como personas o incluso amigos), ya que puede influir en las emociones del usuario, aunque el modelo no tenga emociones ni nada parecido.

Concluye la tertulia hablando de un proyecto observacional de bajo brillo superficial con telescopios “público-privados”, la iniciativa IAC-LightBridges gracias al proyecto TST (Transient Survey Telescope) en el Observatorio del Teide del IAC. La web https://tst.iac.es/ describe este proyecto científico de una institución pública, el IAC (Instituto de Astrofísica de Canarias), y otra privada, The Restless Few, S.L., situado en el Observatorio del Teide (Tenerife). El sitio presenta el telescopio robotizado de 1 metro diseñado para operar con un sistema inteligente de planificación de observaciones (QPIS) supervisado por astrónomos con experiencia, optimizando su eficiencia científica.

El TST está orientado a una amplia gama de proyectos astronómicos que aprovechan su campo de visión amplio y operación continua, incluyendo la detección de eventos transitorios (como supernovas y contrapartidas de ondas gravitacionales), caracterización de exoplanetas, estudios de estructuras de muy bajo brillo superficial (como halos estelares o galaxias ultradifusas), observación de cuerpos menores del Sistema Solar (asteroides, cometas, objetos transneptunianos), y seguimiento de satélites y desechos espaciales.

Nacho comenta que la astronomía observacional moderna está hiperindustrializada, con escaso tiempo de telescopio y comités de selección muy conservadores que penalizan experimentos exploratorios (“probar por probar”). Cuenta que “les tocó la lotería” al descubrir esta instalación con colaboración público y privada con varios telescopios. Destaca uno de 1 metro con un campo enorme (≈2°×2°, unas 16 lunas llenas) y un detector tipo CMOS de lectura muy rápida que permite «hacer una película del cielo” aprovechando todo el tiempo de exposición. Así han observado un campo de varios grados cuadrados de cielo durante ~100 horas seguidas. La idea tiene muchas ventajas con respecto al uso de un telescopio de 10 metros como el GTC, cuya ventaja es que llega en menos tiempo a una gran profundidad, pero con la desventaja de que cubrir un área tan grande de cielo es casi imposible. Además, hay una gran ventaja del sistema nuevo, su homogeneidad  en el campo observado, que no está “fragmentado” por mosaicos de detectores como ocurriría con el GTC. Esta propiedad es esencial para detectar estructuras extensas de muy bajo brillo superficial. Gracias a este tipo de instrumentos se pueden sustraer con precisión el brillo de fondo del cielo sin introducir artefactos instrumentales. Un gran paso hacia la resolución definitiva de la famosa paradoja de Olbers.

¡Que disfrutes del podcast!



2 Comentarios

  1. Si en los últimos años la ciencia continuista estaba aumentando en detrimento de la ciencia disruptiva, ahora con la ia se volverá más exagerado. (Para esta reflexión asumo que la ia no es adecuada para generar ciencia disruptiva, pero me puedo equivocar, claro)

    Felices fiestas Francis.

  2. En un futuro muy, muy cercano…

    2040.11.17-18 Observatorio Lagrange-5

    El Observatorio Orbital de Lagrange-5 flotaba en silencio, suspendido en un punto estable del sistema Tierra-Luna. Desde allí, a sesenta grados de la órbita lunar, el cielo parecía detenido: una vasta calma que se extendía hasta el horizonte, indiferente al paso de las décadas. El espacio no se contemplaba; se escuchaba, se medía en susurros de luz y radiación que viajaban miles de millones de años para llegar hasta los sensores criogénicos del observatorio.

    Lucía de la Fuente y Frans Hawking seguían cada transmisión desde el centro de análisis terrestre, conectados al observatorio mediante una red cuántica de baja latencia. La sala era amplia y silenciosa, con una pared curva que proyectaba el universo en ondas y colores. Sus miradas recorrían la proyección, alternando entre el asombro y la disciplina adquirida tras años de preparación. La misión llevaba décadas en desarrollo, descendiente de proyectos tipo PIXIE, diseñada para detectar espectros absolutos del fondo cósmico de microondas (CBM). Su objetivo era discernir, con precisión casi imposible, las modulaciones sutiles que el universo dejó al volverse transparente.

    —Si esto sale mal —susurró Frans, con un hilo de ironía—, será un silencio muy caro.

    Lucía no respondió. Sabía que el verdadero análisis no ocurría allí, sino en la mente artificial que procesaba cada dato: SaeM01. Activada tres años atrás, SaeM01 no creaba conocimiento, sino que filtraba, interpretaba y descartaba el ruido generado por décadas de literatura saturada y publicaciones automáticas. Su tarea era discernir coherencia donde los humanos solo veían información inabarcable. Ellos estaban allí para recibir lo que la IA considerara relevante.

    —Integración completada —dijo SaeM01, con su tono neutro habitual—. La señal supera el umbral estadístico local. Aún no es detección global.

    Frans levantó la vista.

    —¿Consistencia espectral?

    —Consistente entre bandas —respondió SaeM01—. Compatible con recombinación estándar… dentro de un margen que no esperaba.

    Las líneas estaban allí. No donde brillaban otras emisiones cosmológicas, sino donde la teoría predecía que debían aparecer… aunque ligeramente desplazadas, como si el proceso de recombinación hubiera ocurrido en un medio distinto al que describen las ecuaciones heredadas.

    Lucía se acercó a la proyección. Pensó en el universo temprano no como una sucesión de estados, sino como un fluido físico continuo, con resistencia, con textura. Una idea incómoda se insinuó: ¿y si el espacio-tiempo no era un escenario pasivo, sino algo capaz de absorber, estirarse y responder?

    —Si esto es real —dijo Frans—, no estamos viendo solo cuándo ocurrió la recombinación.

    —Estamos viendo cómo —susurró Lucía.

    SaeM01 amplió los márgenes de integración y descartó interpretaciones prematuras. Por primera vez desde su activación, no ofreció una lectura sintética. No porque no pudiera, sino porque había aprendido que traducir demasiado pronto podía distorsionar la comprensión.

    En algún punto entre el plasma primordial y aquel centro de análisis remoto, el universo había dejado una huella más profunda de lo esperado. No un mensaje. No una intención. Pero sí evidencia de estructura. Y comprenderla exigiría algo que ninguna inteligencia, humana o artificial, podía delegar por completo: decidir qué significa realmente entender el cosmos.
    ________________________________________

    La señal, ahora más detallada, mostraba un patrón deliberado, desplazado respecto a la posición que predecía la recombinación estándar.

    —SaeM01… —dijo Lucía—, ¿puedes mostrar el margen de error total, incluyendo temperatura y vibraciones remotas?

    —Todas las fuentes instrumentales han sido descartadas —respondió SaeM01—. La desviación persiste incluso en condiciones extremas.

    Frans se inclinó sobre la proyección.

    —¿Estás diciendo que algo en el universo primitivo no sigue lo que pensamos?

    —Exactamente —dijo Lucía, con un hormigueo incómodo en la nuca—. O estamos interpretando mal la física, o el tejido del espacio-tiempo no es pasivo.

    SaeM01 proyectó gráficos tridimensionales del “tejido” espacio-temporal temprano: densidad relativa de la sustancia del espacio-tiempo, no geometría pura. En las regiones donde el tejido espacio-temporal era más denso, las líneas espectrales mostraban un ligero desplazamiento adicional; en las zonas de menor densidad, ese efecto era menor, superponiéndose al redshift cosmológico estándar.

    —Esto sugiere que la materia no solo se movía —dijo SaeM01—, sino que interactuaba con el propio tejido, absorbiendo parte de su sustancia y modificando localmente la propagación de la radiación.

    Frans frunció el ceño.

    —Entonces el redshift que medimos no es solo efecto de la expansión. Es… efecto de densidad del medio.

    —Exacto —confirmó Lucía—. Y por eso las líneas de recombinación no aparecen exactamente donde predice la cosmología estándar: no es error ni artefacto, sino la huella física del tejido del universo temprano.

    SaeM01 proyectó simulaciones comparativas: recombinación según ΛCDM y recombinación incluyendo absorción de tejido por la materia. La diferencia era mínima, pero suficiente para explicar el desplazamiento observado.

    —Esto valida la hipótesis—dijo Lucía, con un hilo de emoción contenida—. El universo temprano no solo se expandía: se reorganizaba internamente, como un fluido con densidad variable.

    —Entonces nuestra tarea no es medir únicamente —dijo Frans—, sino interpretar este tejido. La IA puede detectar la señal, pero comprenderla requiere decisión humana sobre su significado.

    SaeM01 permaneció inmutable. No necesitaba asentir. La humanidad aún debía elegir: seguir las ecuaciones clásicas o integrar un nuevo componente físico en la narrativa cosmológica.

    Lucía exhaló lentamente.

    —Esto no invalida nada —dijo—. Solo reinterpreta todo. Lo que creíamos un fondo pasivo ahora se muestra como un registro activo de la historia del universo.

    Frans sonrió, nervioso.

    —Y pensar que todo comenzó con unas líneas que nadie había conseguido ver directamente.

    Fuera del centro de análisis, el universo continuaba su expansión indiferente. La señal llegaba, intacta, desde miles de millones de años atrás. Por primera vez, humanos y máquinas podían leer, casi literalmente, la memoria física de la creación, y al hacerlo, descubrir que incluso el espacio-tiempo tenía historia propia.

Deja un comentario