El problema de la constante de Hubble crece hasta las 4.4 sigmas

Por Francisco R. Villatoro, el 27 abril, 2019. Categoría(s): Astrofísica • Ciencia • Física • Noticias • Physics • Planck • Science ✎ 32

El gran problema de la cosmología actual crece. Las estimaciones del valor actual de la llamada constante de Hubble (H0) dependen del método de medida. La extrapolación al momento actual usando datos cosmológicos (Planck18 + ΛCDM), H= 67.4 ± 0.5 km/s/Mpc, difiere a 4.4 sigmas (99.999%) de la estimación mediante la escalera de distancias usando cefeidas y supernovas Ia, H0 = 74.03 ± 1.42 km/s/Mpc. La tensión entre ambas medidas ha crecido en un año de 3.6 σ hasta 4.4 σ. ¿Hay errores sistemáticos ocultos en alguna de las dos medidas? ¿Se trata de la primera señal de que el modelo cosmológico de consenso debe ser modificado? Solo el tiempo lo dirá, pero estamos viviendo un era apasionante en la cosmología observacional.

La nueva estimación está liderada por Adam G. Riess, Nobel de Física 2011, quien a sus 49 años parece buscar un nuevo galardón con su proyecto SH0ES (Supernovae H0 for the Equation of State). Se basa en una estimación más precisa de la parte cercana de la escalera de distancias usando 70 cefeidas de periodo largo en la Gran Nube de Magallanes (LMC) obtenida con el Telescopio Espacial Hubble (HST). Una nueva calibración de su distancia mejora la precisión de la medida, reduciendo la incertidumbre desde un 2.5% hasta un 1.3%, permitiendo estimar la constante de Hubble, usando solo cefeidas en LMC, de  H0 = 74.22 ± 1.82 km/s/Mpc. Combinando esta estimación cercana con las medidas de máseres en NGC 4258 y con las paralajes en la Vía Láctea se obtiene la estimación final H0 = 74.03 ± 1.42 km/s/Mpc. Según Riess, en su búsqueda de un segundo Nobel, la única solución a la tensión entre las medidas locales y cosmológicas del valor actual de la constante de Hubble es modificar el modelo cosmológico de consenso.

Riess y sus colegas nos proponen cinco modificaciones del modelo ΛCDM que alivian la tensión. Su preferencia clara es que la energía oscura es dinámica y su ecuación de estado no corresponde a la constante cosmológica de Einstein. ¿Cuándo saldremos de dudas? Casi con seguridad a finales de la década de los 2020. ¿Recibirá un segundo Nobel Riess por sus esfuerzos? Quién sabe. Te recomiendo leer junto a su nuevo artículo Adam G. Riess, Stefano Casertano, …, Dan Scolnic, «Large Magellanic Cloud Cepheid Standards Provide a 1% Foundation for the Determination of the Hubble Constant and Stronger Evidence for Physics Beyond LambdaCDM,» Accepted by ApJ, arXiv:1903.07603 [astro-ph.CO] (18 Mar 2019), el artículo W. D’Arcy Kenworthy, Dan Scolnic, Adam Riess, «The Local Perspective on the Hubble Tension: Local Structure Does Not Impact Measurement of the Hubble Constant,» The Astrophysical Journal 875: 145 (24 Apr 2019), doi: 10.3847/1538-4357/ab0ebfarXiv:1901.08681 [astro-ph.CO] (24 Jan 2019).

Sobre el futuro que nos espera en la década de los 2020 recomiendo leer a Dan Scolnic, Saul Perlmutter, …, Ningfeng Zhu, «The Next Generation of Cosmological Measurements with Type Ia Supernovae,» arXiv:1903.05128 [astro-ph.CO] (12 Mar 2019), y R. J. Foley, K. D. Alexander, …, M. Zevin, «Gravity and Light: Combining Gravitational Wave and Electromagnetic Observations in the 2020s,» arXiv:1903.04553 [astro-ph.HE] (11 Mar 2019).

La década de los 2020 supondrá un antes y un después en el estudio de la escalera de distancias usando supernovas Ia. A principios de la década se espera un incremento de su número en un factor 5× para z bajo (gracias a ZTF, Foundation, ATLAS, ASAS-SN) y en un factor 2× para z medio (gracias a DES). Pero la gran revolución llegará a mediados de la década, con un incremento en el número de SN Ia del orden de 300× para z medio (gracias a LSST) y de hasta 1000× para z alto (gracias a WFIRST). Más aún, alcanzaremos valores de z muy alto (quizás hasta z ≈ 5) con JWST (el tan esperado Telescopio Espacial James Webb). Sin lugar a dudas, a finales de la década de los 2020 sabremos si la energía oscura es dinámica y empezaremos a desvelar los detalles de su ecuación de estado.

Más aún, la década de los 2020 también nos ofrecerá la determinación precisa del valor actual de la constante de Hubble usando ondas gravitacionales. Las fusiones de estrellas de neutrones observadas mediante astronomía multimensajero (ondas gravitacionales, ondas electromagnéticas y neutrinos) revolucionarán nuestra manera de medir distancias en el cosmos. A mediados de los 2020 se podría observar una de estas fusiones cada semana. Gracias a una estadística tan enorme las supernovas Ia dejarán de ser el único método fiable para estimar el valor local de la constante de Hubble para valores medios y altos de z. Quizás gracias a las ondas gravitacionales resuelvan la tensión con la constante de Hubble en una dirección que ni el propio Riess puede imaginar.

Seguro que estarás pensando que las medidas locales de la constante de Hubble podrían estar sesgadas por el entorno local. Quizás hay un gran vacío local que hace que dichas medidas sean 4.4 sigmas más altas que las medidas extrapoladas a partir del fondo cósmico de microondas. Como no, el propio Riess te contesta que un rotundo. Las estructuras locales no parecen tener ningún impacto significativo sobre la estimación de la constante de Hubble usando supernovas Ia. Con unas 5 sigmas Riess te garantiza que la tensión con la constante de Hubble no tiene su origen en estructuras locales.



32 Comentarios

  1. Pues sí, se pone interesante. En cualquier caso, son ya demasiadas las medidas que apuntan a la discrepancia, y mientras que Riess y colegas realizan medidas en cierto modo directas, la estimación con Planck se basa en un MODELO… tal vez tengamos que abandonar el modelo.

    1. Cuidado, Curioseando, muchas voces en cosmología tienen serias dudas sobre las medidas de Reiss, observando un peligroso sesgo de confirmación, de ahí que en mi entrada afirmo que parece que «busca un nuevo Nobel». La opinión general es que hay errores sistemáticos que serán detectados cuando nuevos instrumentos (en la próxima década) estén disponibles. Afirmar que lo que mide Riess es bueno porque es un premio Nobel, o por lo que sea, es un sesgo de autoridad. No caigas en dichos sesgos.

      1. A mí me da igual quien sea Riess, lo que comento es que él emplea un método basado en medidas «en cierto modo directas». Desde el punto de vista del prestigio y de buscar el segundo Nobel, precisamente en esta situacion quien tiene más que arriesgar es él, me extrañaría que no pusiera todo el cuidado del mundo en sus medidas y en lo que publica. En cualquier caso, una diferencia de 67 a 74 ya es demasiado, me sorprendería que a estos niveles esté metiendo tanto la pata.

  2. arXiv:1811.02590, “Cosmological constraints from the Hubble diagram of quasars at high redshifts”, «a deviation from the ΛCDM model emerges at higher redshift, with a statistical significance of ∼ 4σ. If an evolution of the dark energy equation of state is allowed, the data suggest a dark energy density increasing with time»

    arXiv:1809.01274, “H0LiCOW – IX. Cosmographic analysis of the doubly imaged quasar SDSS 1206+4332 and a new measurement of the Hubble constant”, «Interestingly, their value is closer to the that obtained using the local distance ladder method (Riess et al. measure H0 = 73.48±1.66 km/s/Mpc.) It is becoming clear that measurements of the Hubble constant based on “distances” give consistent values, while measurements based on the last scattering surface of the CMB photons, as assumed by ΛCDM, are only coincidentally close (but disagree at the > 3σ level).

    Habra que esperar con emocion nuevos resultados en la proxima decada como apunta Francis, aunque de momento hay indicios de que el modelo cosmologico de consenso tal y como lo conocemos hoy dia esta en vias de ser «falsado» sin mucho genero de dudas -añadase el problema de la materia oscura y otros varios conundrums que atenazan al modelo, con el riesgo de llegar a un punto en que las estrategias convencionalistas de reacomodo lleven a una situacion degenerativa sin solucion de continuidad. Un momento apasionante sin duda.

    1. Aclarar que el termino «New Physics» que aparece en la imagen de esta entrada es sinónimo de «es necesario reacomodar el modelo con nuevas hipótesis», de ahí el riesgo real de entrar en modo degenerativo.

  3. Francis, es matemáticamente consistente sustituir la constate cosmología en las ecuaciones de la relatividad general (y del modelo ΛCDM) por una función dependiente del tiempo?

    1. No, pero se puede añadir un nuevo campo cuántico escalar cuyo valor promedio de vacío se sume a la constante cosmológica, pero cuyo valor promedio puede depender de z; así aparece una constante cosmológica efectiva que depende de z que describe una energía oscura que depende z.

      1. A ver si entiendo lo que pretendes decir:
        La constante cosmológica Λ constante en tiempo y espacio
        La densidad de energía oscura

        ρ=(Λ c^2)/(8 π G) constante en espacio y tiempo

        La ecuación de estado para la energía oscura es:

        p=w ρ c^2

        En el modelo ΛCDM estándar es w=-1

        p=-ρ c^2

        Al modelo estándar añadimos un nuevo campo cuántico escalar tipo “energía fantasma” que la única modificación que genera es que en la ecuación de estado sea w < -1 constante
        Por ejemplo, me invento w=-1.1 lo que dejaría la ecuación de estado para la energía oscura en

        p=- 1.1 ρ c^2

        ¿Es esto lo que estás queriendo decir?
        Gracias y saludos.

    2. Samu:

      Hay muchísimas formas simples de notar que remplazar a la constante cosmológica por una función dependiente del tiempo es muy mala idea. Además de romper explícitamente la covarianza general en las ecuaciones de campo para la métrica más general e ignorar la mera definición de la constante como un multiplicador de Lagrange para los diversos problemas variacionales que las ecuaciones de Einstein resuelven.

      Ejemplos:

      1) La densidad de energía del vacío es proporcional a Λ, en ecuaciones: ρ(vacío) α Λ; si supones ρ(vacío) α Λ(t) entonces observarás violaciones locales a la conservación de la energía (nótese el término local) y tendréis un problema bastante grave.

      2) Podéis recordar también la ecuación de aceleración de Friedman y notar que una lambda dependiente del tiempo Λ:=Λ(t) produce violaciones locales del principio de equivalencia.

      3) Mis favoritas: Pensad los múltiples problemas que produciría una lambda variable en la física de cualquier campo cuántico (por muy pequeña que sea la variación de Λ en el tiempo).

      Saludos.

  4. Francis, creo que en la entrada hay un pequeño lapsus lingua, entiendo que donde pone «Una nueva calibración de su distancia reduce la precisión de la medida de un 2.5% a un 1.3%, » deberia poner algo asi como «Una nueva calibración de su distancia mejora la precisión de la medida, reduciendo la incertidumbre desde un 2.5% hasta un 1.3%, «

  5. Gracias por enterarnos de tan emocionantes noticias Francis.

    Más emocionado no puedo estar, todo esto es absolutamente increíble.

    «Son tiempos apasionantes para la cosmología de observación»

  6. Muy buen articulo que aclara bastantes cosas. Pues si, parece peliagudo aunque como pasa siempre en la ciencia el modelo que reemplazara a ΛCDM tendria que explicar esas anomalias y todo aquello que ese modelo explica tan bien, y las observaciones que lo apoyan.

    Desde el punto de vista de un aficionado, aunque que haya nueva fisica esperando es algo mas que apasionante ¿no podria esto deberse no ya a errores sistematicos sino a algo vaya mal en la escala de distancias?. Por ejemplo, aunque la distancia a la LMC haya sido medida no solo con cefeidas (TRGB, etc) quizas que la metalicidad de esa galaxia sea menor que la de la nuestra influyera en las cefeidas no «funcionando» igual que las de la Via Lactea y metiendo un error. Ademas habia especulaciones de que hay dos tipos de supernova Ia: colision de dos enanas blancas y enana blanca explosionando tras superar el limite de Chandrasekhar por capturar demasiada materia de una compañera, que no tendrian el brillo similar (y a ver si no se estuvieran metiendo ahi kilonovas como esa colision de dos estrellas de neutrones detectada por LIGO en 2017). Son solo especulaciones que seguro que se habran tenido en cuenta pero ahi las dejo.

    En cualquier caso son tiempos apasionantes para la cosmologia.

  7. Parece que hay una tercera medición en la cocina, por el equipo de Wendy Freedman, Univ. de Chicago, utilizando un conjunto de estrellas diferente al utilizado por el equipo de Reiss … de momento lo que se filtra es que el valor obtenido podría estar entre Planck y Reiss … habrá que esperar con impaciencia para ver los resultados y las características y precisión reportadas de la medida. Por su parte, Reiss tiene como objetivo rebajar la incertidumbre de su medición por debajo del 1%, seguramente para finales del año 2020.

    The less one knows about the universe, the easier it is to explain (Léon Brunschvicg)

  8. Es muy interesante esta aparente discrepancia aunque creo que lo más probable es que se deba a errores sistemáticos debido a la gran dificultad que entrañan las medidas. El problema de la constante cosmológica es desconcertante: su valor es prácticamente cero pero no exactamente cero, estamos hablando de un «ajuste» de decenas de órdenes de magnitud ¿Como es posible que se produzca algo asi? Hay que darse cuenta de que cualquier pequeñísima desviación habría sido enormemente amplificada durante la expansión del Universo por lo que medir en la época actual un valor casi infinitesimalmente cercano a cero es muy difícil de explicar. Por otro lado está la aparente «coincidencia» de que la expansión acelerada parece que ha empezado a dominar precisamente en el periodo de tiempo actual, hay propuestas para explicar esta «coincidencia» aunque no parece haber un consenso definitivo sobre la solución a este hecho. Por si esto fuera poco tenemos el llamado teorema «no-go» de Weinberg que viene a decir que no hay forma de encontrar una solución al problema de la constante cosmológica sin considerar un «fine-tunning» en los campos locales, es decir, tendríamos que recurrir a algún tipo de QFT no local para evitar el indeseable ajuste fino. Lo emocionante de todo esto es que, como explica Francis, futuras observaciones del CMB, de ondas gravitatorias junto con la astronomía multimensajero nos darán observaciones más precisas y quizás podamos vislumbrar una solución al gran problema de la constante cosmológica: ¿Landscape/Multiverso?, ¿Nuevos campos escalares?, ¿Efectos no-locales?, ¿Una nueva etapa inflacionaria?, ¿Holografía? Sin duda vivimos una etapa apasionante en Cosmología y todo parece indicar que lo que hasta ahora hemos observado es solo una pequeña parte de un Universo mucho más complejo y fascinante.

      1. Nudomariner:

        El artículo parece tener fuertes mal entendidos fundamentales sobre lo que se entiende por «holografía» (y por muchas otras cosas). Almacenar bits en celdas del volumen de Planck no es «holografía», más aún, un universo en expansión acelerada no tiene dual holográfico conocido.

        Habría que tener cuidado con artículos tan especulativos.

        Saludos.

  9. «… Por otro lado está la aparente ‘coincidencia’ de que la expansión acelerada parece que ha empezado a dominar precisamente en el periodo de tiempo actual …»
    Esta frase, que se repite en multitud de contextos a mí no me parece correcta. No sé cual fue su origen, probablemente el de arrimar el ascua a la sardina del principio antrópico.
    Imaginemos un niño de 14 años. Cuando cumplió 8 años empezó claramente a cojear y la cojera ha ido aumentando hasta la actualidad, 6 años después de que se iniciase. El niño no ha cojeado durante 8/14=57% de su ida y es cojo en los últimos 6/14=43% de su vida. No me parecería justificado afirmar que «su cojera se ha producido en el periodo de tiempo actual»
    El universo tiene 13.8 mil millones de años. Durante los primeros 7.6 mil millones de años la expansión fue decelerada (55% de su vida), pero pasó a ser acelerada hace ya la friolera de 6.1 mil millones de años (45% de su vida) Decir que se ha acelerado «actualmente» me parece infundado, por mucho que se repita en entornos pro-antrópicos, (que sé que no es el caso del comentarista planck)
    Quien desee echar un vistazo a los cálculos del momento en que el universo pasó de decelerado a acelerado, puede encontrarlos en:
    https://forum.lawebdefisica.com/entries/623-El-inicio-de-la-expansi%C3%B3n-acelerada-del-Universo-la-aceleraci%C3%B3n-del-factor-de-escala
    Saludos.

    1. Albert, que no te engañen los miles de millones de años, se usa la palabra «reciente» en relación al desplazamiento al rojo; reciente es z < 1. Recuerda que el CMB se acabó de formar a z = 1100; al comparar 1 con 1100 se considera que 1 es "reciente" respecto a 1100.

      1. Gracias Francis, será como tú dices, pero partir el intervalo 0 < z < Infinito en dos subconjuntos, uno de ellos 0 < z < 1 y el otro 1 < z < Infinito, y llamarle al primero “reciente” y al segundo no, me parece arbitrario e interesado. El punto z=1 no posee absolutamente ninguna característica física que lo haga especial respecto de por ejemplo z=3 ó z=0.5

        saludos.

          1. Gracias Francis. En efecto 10^43 no es infinito, pero es un número enorme. Es enorme frente a 1, frente a 0.5, frente a 3 o incluso frente a 1100
            Elegir “1” en vez de elegir 0.5, ó 3 ó 1100 para “reciente” será habitual en Cosmología y lo respeto, pero es arbitrario y sin ninguna base física (que yo conozca)
            Gracias por tu amabilidad en el intercambio de opiniones, saludos cordiales.

  10. Albert:

    El problema de la coincidencia es un problema numerológico. Si es un «problema físico real o no» es difícil de establecer sin una teoría sobre la naturaleza microscópica de la constante.

    Seguro usted conoce (porque suele hacer valiosos comentarios en este blog) la siguiente figura: https://ned.ipac.caltech.edu/level5/March01/Carroll/Figures/figure1.jpg (que asume espacio plano y Ω(Λ) = 0.7 en el tiempo actual, más contexto aquí:https://ned.ipac.caltech.edu/level5/March01/Carroll/Carroll1.html ), yo que estoy de acuerdo con usted y no entiendo el problema de la coincidencia como un problema físico «genuino» considero impresionante lo estrecho que es el pico en la época actual.

    Aceptar el problema de la coincidencia como problema no viene necesariamente de un razonamiento antrópico, lo que sí parece sugerir es una relación entre los valores de densidad para energía oscura y materia bariónica.

    Algunas posibles explicaciones no basadas en (argumentos antrópicos):

    1) Tracker models: https://arxiv.org/ftp/arxiv/papers/0910/0910.5406.pdf .
    2) Suponer que Ω(Λ) es aproximadamente igual a Ω(materia) en la mayor parte del tiempo cósmico.
    3) Alguna relación bizarra formación de estructura y aceleración https://arxiv.org/abs/1411.6218

    Y por supuesto la solución antrópica.

    Repito: en lo personal no entiendo esto como un problema, además, todas las soluciones son muy forzadas, 1) supone campos escalares con potenciales tipo Cos x o Cosh x lo cual es fácil proponer a nivel clásico pero a nivel cuántico es sumamente antinatural, 2) tiene serios conflictos con la observación y 3) tira por la borda muchas suposiciones del modelo cosmológico de consenso.

    El problema de la coincidencia está en el mismo estatus que coincidencias del tipo: Lambda ~ (masa del neutrino)^4 ¿Implica esto una relación entre la constante y la escala de masa del neutrino más ligero?, La masa del quark Top deja al modelo estándar en la línea de la metaestabilidad este hecho junto al acoplo higgs-top cercano a uno ¿Implica una relación entre el Higgs y lambda?.

    ¿ρ(lambda) ~ ρ(materia bariónica) implica algún acoplamiento no gravitacional entre dichas componentes? Sin una teoría microscópica de ambas … es difícil responder.

    Saludos Albert.

    1. Gracias Ramiro. Sí, el “problema de la coincidencia” tiene aire numerológico y como dijo una vez un sabio que anda por aquí cerca “La numerología es el ‘arte’ de ver lo que uno quiere donde no lo hay”

      Y opino que el gráfico https://ned.ipac.caltech.edu/level5/March01/Carroll/Figures/figure1.jpg no tiene nada de impresionante: primero elijen arbitrariamente que lo que les interesa es la derivada primera de la función ratio de energía oscura, para así conseguir que la representación gráfica tenga forma de campana.

      Si ahora elijo escala logarítmica en abcisas, y pinto un montón de décadas tanto a la izquierda como a la derecha de la campana, consecuencia: no importa lo ancha o estrecha que sea la campana en cuanto a su significado físico, obrando de esta manera siempre voy a obtener un pico estrechísimo.

      De nuevo gracias Ramiro, saludos.

      1. Albert:

        Yo no diría arbitraria la construcción de la gráfica, el cambio de Ω(Λ) respecto del factor de escala me parece un buen parámetro dinámico, graficarlo contra log(a) tampoco es arbitrario pues el factor de escala es en general una ley de potencia con el tiempo, así que log(a) funciona a manera de «tiempo» y por tanto una gráfica de dΩ(Λ)/da vs log(a) es una forma razonable de cuantificar «cuando comienza a acelerarse el universo» (mala frase) en «tiempos recientes». Pero vamos, estoy de acuerdo con usted en que mi afirmación de que el gráfico es «impresionante» es sólo una vaga opinión y de esto NO trata la ciencia.

        En conclusión: me parece muy práctico y razonable decir que la aceleración cósmica ha iniciado recientemente. Y en cuanto a que esto sea un hecho físico importante soy profundamente escéptico, pero sólo es una postura.

        Gracias por sus amables comentarios.

  11. Me gustaría hacer dos preguntas de concepto, seguro que Francis las puede responder:
    1- Según las observaciones el universo es homogéneo e isótropo. Pero si se observa una zona del universo a 10.000 millones de años luz y otra a 5.000 m. de años luz ¿se hará una corrección del tiempo para obtener una «foto instantánea» y deducir u observar esa homogeneidad?
    2-¿Podría ser que la aceleración o energía oscura haga perder en cierto grado la homogeneidad el universo?

    Saludos y gracias.

    1. Paco:

      1.- Para darse una idea como se sabe que el universo es homogéneo e isótropo le recomiendo este excelente video al respecto de como se miden los distintos parámetros cosmológicos usando información del fondo cósmico de microondas: https://www.youtube.com/watch?v=puIIAAGEwVM

      2.- No. La densidad de energía oscura es constante en un volumen dado en nuestro universo, una inhomogeneidad por definición sería un fallo a esa constancia y tal fallo no puede ser producido por una componente cuya densidad se mantiene constante en el tiempo.

      Saludos.

  12. Cuando dices que la opinión general es que se debe a errores sistemáticos quizá sería conveniente que citaras qué papers forman el corpus de esa «opinión general»

Deja un comentario