Te recomiendo disfrutar del episodio 493 del podcast Coffee Break: Señal y Ruido [iVoox A, iVoox B; ApplePodcast A, ApplePodcast B], titulado “Cosmología Timescape; Bacterias Superheroínas; Café y Bacterias”, 02 ene 2025. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: Anuncio: colaboración con iVoox (13:00). La cosmología alternativa de timescapes (20:00). Cara B: -La cosmología alternativa de timescapes. Continuación (00:01). Bacteria Superman (51:38). Consumo de café y bioma intestinal (Lawsonibacter asaccharolyticus) (1:15:38). Señales de los oyentes (1:31:25). Imagen de portada realizada por Héctor Socas. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».
¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 309! Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!
Descargar el episodio 493 cara A en iVoox.
Descargar el episodio 493 cara B en iVoox.
¡Feliz 2025! Disfruta de nuestro vídeo de felicitación anual, diseñado y editado por la genial Sara Robisco. ¡Que la ciencia os acompañe!
Como muestra el vídeo participamos por videoconferencia Héctor Socas Navarro @HSocasNavarro / @HSocasNavarro@bird (@pCoffeeBreak / @pCoffeeBreak.bsky), Sara Robisco Cavite @SaraRC83 / @ViajandoConCiencia.bsky, Héctor Vives-Arias @DarkSapiens / @DarkSapiens.bsky, Juan Carlos Gil Montoro @Ooxine (@ApuntesCiencia / @ApuntesCiencia.bsky / @ApuntesCiencia@astrodon), y Francis Villatoro @eMuleNews / @eMuleNews.bsky / @eMuleNews@mathstodon. Por cierto, agradezco a Manu Pombrol @ManuPombrol el diseño de mi fondo para Zoom; muchas gracias, Manu.
Tras la presentación, Héctor nos comenta que se ha caído la página web del podcast (https://señalyruido.com). También nos comenta que un oyente, Daniel Masjuan, nos ha comentado en privado que participó como Study Lead en los ensayos clínicos del lenacapavir de Gilead Sciences para el SIDA (contra el retrovirus VIH). Comento que he buceado en dichos ensayos clínicos (https://clinicaltrials.gov/study/NCT04994509 y https://clinicaltrials.gov/study/NCT04925752), pero no aparece su nombre. No aparece ningún Study Lead, solo aparece el Study Director, pero sin especificar el nombre de la persona; solo aparece el cargo Gilead Study Director (afiliado al Gilead Clinical Study Information Center). Quizás Masjuan ocupe dicho cargo.
Héctor anuncia una nueva colaboración con iVoox para el año 2025 (ya nos dará detalles en el futuro). Además, nos comenta un vídeo en YouTube de Sabine Hossenfelder sobre la noticia que nos comentó en el episodio 491 en relación a las superfulguraciones solares (LCMF, 19 dic 2024). Héctor comenta que ella incurre en algunas erratas, pero que, en general, se agradece que también divulgue física solar.
Héctor, Héctor Vives y yo comentamos una nueva cosmología llamada del paisaje temporal (timescape cosmology), cuyo nombre original era cosmología de la burbuja fractal (fractal bubble cosmology). La cosmología de consenso LCDM usa las hipótesis de isotropía y homogeneidad; esta hipótesis es cierta a gran escala (así lo confirman el fondo cósmico de microondas y todas las demás observaciones cosmológicas). Pero dicha hipótesis no es cierta a pequeña escala (a escala astrofísica, donde es de esperar que la cosmología no sea aplicable). Se llama cosmología inhomogénea (también cosmología reciente, o late-time cosmology) a la que considera los efectos cosmológicos de dichas inhomogeneidades astrofísicas (como si fueran cosmológicas).
La fuente más obvia de inhomogeneidad es la web cósmica (la estructura en forma de espuma de la distribución de materia en el universo, que presenta grandes vacíos (o subdensidades) separados entre sí por sobredensidades, donde se encuentran las galaxias y los supercúmulos galácticos). Como la diferencia de densidad entre los vacíos y las sobredensidades es del orden del 10 %, en general, el efecto de las inhomogeneidades es despreciable a escala cosmológica. Pero dicho porcentaje parece similar al necesario para resolver problemas como el de la constante de Hubble (aunque hay decenas de estudios que demuestran que los grandes vacíos son incapaces de resolver dicho problema). Además, dichas inhomogeneidades podrían explicar la aceleración de la expansión cósmica, sin necesidad de energía oscura (y ya se sabe que ir en contra de la energía oscura y/o de la materia oscura genera un gran eco mediático, tanto como ir en contra de Einstein).
David L. Wiltshire es uno de esos soberbios cosmólogos teóricos (que por fortuna son muy pocos) que consideran que si la Naturaleza contradice sus teorías, entonces la «Naturaleza está equivocada». Faltaría más, cómo va a ser que sus «bellas teorías» estén equivocadas. Las observaciones que refutan las teorías cosmológicas inhomogéneas tienen que estar mal, porque dichas inhomogeneidades alteran las reglas de medida para el tiempo y el espacio que se usan para interpretar dichas observaciones. En rigor, hay que empezar desde cero, para reinterpretar las observaciones astrofísicas de tal forma que confirmen sus teorías cosmológicas (que, repito, no pueden estar equivocadas). Las observaciones de supernovas Ia de cartografiados como JLA y Pantheon+ se interpretan aplicando a sus curvas de luz la famosa fórmula de Tripp (algoritmo SALT2). Las inhomogeneidades implican que dicha fórmula tiene que estar mal (pues usando dicha fórmula la cosmología inhomogénea es refutada por las observaciones).
Por ello, proponen ajustar de forma simultánea su modelo cosmológico y una fórmula empírica que reemplace la de Tripp. En lugar de ajustar los 6 parámetros del modelo cosmológico LCDM a las supernovas Ia ajustadas usando la fórmula de Tripp (lo que hacen todos los cosmólogos de pro), proponen ajustar los 7 parámetros de su nuevo modelo cosmológico (el séptimo es la fracción de vacío fV asociada a la web cósmica) junto con 4 parámetros para una nueva ley astrofísica (α, β, x1, y c), un total de 11 parámetros. Como es de esperar, ajustar 11 parámetros siempre conduce a un resultado mejor que ajustar 6 parámetros, siempre y cuando el resultado de dicho ajuste no dependa de las supernovas Ia que se ajusten. Por desgracia, como también es de esperar, ese no es el caso.
Parece fácil, pero todo es mucho más complicado. En rigor la fracción de vacío fV depende de la escala, es decir, del desplazamiento al rojo. Así que hay que ajustar 11 parámetros que dependen del desplazamiento al rojo z (que para 22 valores entre z = 0.0 y 0.1 corresponden a 242 parámetros). Una labor imposible (por el alto coste computacional de ajustar 242 parámetros), máxime cuando debe ser realizada por Wiltshire y sus 4 estudiantes. Por ello se limitan a ajustar 5 parámetros (la fracción cósmica de masa ΩM y los parámetros astrofísicos de su fórmula α, β, x1, y c) en un artículo publicado en MNRAS (Zachary G Lane, Antonia Seifert, …, David L Wiltshire, «Cosmological foundations revisited with Pantheon+,» MNRAS 536: 1752-1777 (19 Dec 2024), doi: https://doi.org/10.1093/mnras/stae2437); en un segundo artículo ajustan 6 parámetros (además de ΩM incluyen la fracción de vacío fV), Antonia Seifert, Zachary G Lane, …, David L Wiltshire, «Supernovae evidence for foundational change to cosmological models,» MNRAS Letters 537: L55-L60 (19 Dec 2024), doi: https://doi.org/10.1093/mnrasl/slae112).
Como es obvio, si su modelo cosmológico inhomogéneo fuera correcto, el ajuste del parámetro cosmológico y los parámetros astrofísicos sería independiente del conjunto de supernovas Ia usado (porque la Naturaleza es única por definición). Por desgracia, como muestra la tabla (del primer artículo, para un desplazamiento al rojo de z = 0.075), los resultados «bailan una sevillana a ritmo de una rumba». Por ejemplo, con el análisis bayesiano (pues las diferencias son mayores para el análisis frecuentista), resulta que 100 ΩM se estima en 30.5 ± 1.8 para JLA580 (580 supernovas de JLA), 33.8 ± 0.9 para JLA740, 29.1 ± 0.8 para P+580 (580 supernovas de Pantheon+) y 46.2 ± 0.9 para P+1690; nótese, por ejemplo, que entre JLA740 y P+1690 hay (46.2 − 29.1)/0.9 = 19 sigmas (desviaciones típicas) de diferencia, o que entre JLA580 y JLA740 hay (33.8 − 29.1)/0.9 = 5.2 sigmas de diferencia.
¿Qué significan las diferencias mostradas en la tabla? Que «torturar los datos para que confiesen» en favor de la nueva cosmología solo conduce a resultados que refutan dicha cosmología. Por supuesto, Wiltshire lo sabe, por ello usa el «truco del almendruco» para confundir a los revisores; en lugar de comparar el ajuste de su modelo cosmológico con cinco parámetros (ΩM, α, β, x1, y c) con el LCDM con parámetros fijados (cosa que no puede hacer porque entonces se refuta su modelo por muchas sigmas), compara usando un algoritmo bayesiano los ajustes de su modelo cosmológico con cinco parámetros ajustables y de un exótico LCDM también ajustado con dichos cinco parámetros. Este «magreo de datos» no tiene ni pies ni cabeza; en mi opinión, no debería ser aceptado en la revisión por pares. Pero parece que a los revisores de sus artículos en MNRAS (y en otras revistas) estas nimiedades les importan un comino. Más aún, Wiltshire recurre a comentar unas cuantas «chorradas» sobre filosofía popperiana, junto a una argumentación pseudofilosófica irrelevante, para tratar de justificar lo injustificable, que su «magreo de datos» es una metodología científica fetén.
En mi opinión este tipo de artículos son «ruido», sin ninguna «señal». Ya se sabe que «la mona, aunque se vista de seda, mona se queda». La cosmología de Wiltshire se publicó en 2007 y fue refutada por sus primeros análisis de supernovas Ia en 2007. Pero desde entonces, ha seguido publicando nuevas refutaciones como si fueran avances positivos. Porque las «bellas teorías» nunca mueren. Sigue y seguirá publicando sus ideas en busca de eco mediático (un minuto de fama bien vale cientos de páginas en revistas científicas rellenas de «ruido»). ¿Cómo es posible que en la revisión por pares se acepte todo lo que aparenta tener una metodología científica rigurosa? En el podcast, mi papel de «poli malo» es compensado por Héctor Socas y Héctor Vives, que en su papel de «polis buenos» tratan de justificar que este tipo de artículos son necesarios y que se deben seguir publicando en prestigiosas revistas. En su opinión se trata de un trabajo en fase temprana, que podría tener un impacto significativo en el futuro. Más aún, Héctor Socas recalca que la labor de la revisión por pares no es rechazar artículos irrelevantes; solo se deben rechazar los artículos que estén mal.
Silverine McSilver pregunta: «A mí lo que me fascina es que el efecto de la supuesta energía oscura se perciba a partir de un cierto momento y no desde el principio…» Héctor contesta que en el modelo LCDM es la constante cosmológica, que es constante y siempre está presente. Pero su efecto es pequeño en comparación con el efecto de la materia, por ello solo se observa en los grandes vacíos de la web cósmica, donde su efecto se hace comparable, e incluso supera, al efecto de la materia. Apostillo aquí que el problema de la coincidencia, ¿por qué ahora la energía oscura domina el universo?, junto al problema de la magnitud, ¿por qué en unidades de Planck la constante cosmológica es tan pequeña?, son los dos grandes problemas asociados a la constante cosmológica que aún no tienen solución.
Héctor agradece el patrocinio de AICAD Business School (https://www.aicad.es). Aicad es la empresa de Inma Vega y Ermel, oyentes del programa desde hace nueve años y personas cientófilas. Nos anuncia la semana de la inteligencia artificial (IA Week 2025), un evento gratuito desde el 20 al 23 enero 2025 (inscripciones en https://www.aicad.es/events/ia-week-2025). También ofertan un máster de IA (para nuestros oyentes habrá un descuento, solo tienen que decir que lo son al inscribirse).
Juan Carlos nos habla de un artículo en Nature Catalysis que propone cómo transformar bacterias en bacterias superman (gracias a una supercapa protectora, una «capa de superman»). La idea es modificar las membranas celulares de bacterias Escherichia coli mediante polímeros catalíticos que las protegen de la catálisis fotoenzimática. Se usa la polimerización vía radicales por transferencia de átomos (ATRP, siglas de Atom Transfer Radical Polymerization) para insertar polímeros funcionales en la membrana; se ha demostrado con dos catalizadores: un fotocatalizador basado en antraquinona (P1 en la figura) y un polimerizador organometálico con rutenio (P2 en la figura).
El artículo es una prueba de concepto; se demuestra una reacción en cascada que convierte alcohol bencílico en benzaldehído y luego en benzoin, logrando rendimientos hasta 15 veces superior a los controles. Las células con polímeros insertados mantienen su función bajo los procedimientos estándares en la industria(como la centrifugación). El resultado es relevante química sintética, biotecnología y catálisis sostenible, al prometer la inserción de catalizadores químicos y biológicos que se ya se usan en aplicaciones industriales. Además, podría ser interesante en química verde, al permitir procesos catalíticos más eficientes y respetuosos con el medio ambiente. Incluso podría tener aplicaciones en otros tipos de células, con aplicaciones biomédicas. Nos lo explica muy bien Juan Carlos, recomiendo disfrutar del audio. El artículo es Jian Ning, Zhiyong Sun, …, Changzhu Wu, «Engineering living cells with polymers for recyclable photoenzymatic catalysis,» Nature Catalysis 7: 1404-1416 (11 Dec 2024), doi: https://doi.org/10.1038/s41929-024-01259-5.
Sara nos cuenta un artículo en Nature Microbiology sobre la relación entre el consumo de café y el microbioma intestinal, en concreto, la bacteria Lawsonibacter asaccharolyticus. La abundancia de dicha bacteria está asociada al consumo de café con una AUC de 0.89 (AUC es un estadístico llamado área bajo la curva), según un estudio multiómico y multicohorte de la dieta de 22 867 participantes de EEUU y Reino Unido, así como de datos públicos de 211 cohortes (N = 54 198). Lo confirman estudios de laboratorio in vitro en los que el crecimiento de la bacteria L. asaccharolyticus es estimulado en un medio suplementado con café. Este hallazgo establece una conexión metabólica entre el café, sus metabolitos (como el ácido quínico y la trigonelina), y la microbiota intestinal.
Mediante técnicas de metagenómica y metabolómica se han desvelado los metabolitos más significativos en la asociación entre la microbiota intestinal y el consumo de café: destacan el ácido quínico y la trigonelina (compuestos bioactivos presentes en el café correlacionados con L. asaccharolyticus), y la cafeína y algunos metabolitos derivados de su metabolismo (1-metilúrico, 1,7-dimetilúrico, 1-metilxantina, 3-metilxantina, y 5-acetilamino-6-amino-3-metiluracilo). Este estudio es relevante porque muestra como un alimento muy consumido interacciona con la microbiota, pero aún queda mucho más por estudiar en este campo. Sus potenciales aplicaciones son la investigación nutricional, en la personalización de dietas y en la identificación de nuevas estrategias terapéuticas basadas en la manipulación de la microbiota intestinal. El artículo es Paolo Manghi, Amrisha Bhosle, …, Mingyang Song, «Coffee consumption is associated with intestinal Lawsonibacter asaccharolyticus abundance and prevalence across multiple cohorts,» Nature Microbiology 9: 3120-3134 (18 Nov 2024), doi: https://doi.org/10.1038/s41564-024-01858-9; más información divulgativa en Nathan P. McNulty, Jeffrey I. Gordon, «Coffee habits help shape gut communities,» News & Views, Nature Microbiology 9: 3088-3089 (20 Nov 2024), doi: https://doi.org/10.1038/s41564-024-01869-6.
Y pasamos a Señales de los Oyentes. Cristina Hernández García pregunta: «¿Por qué si la bacteria dependiera de la cafeína también ocurriría con el té? ¿El té lo modifica de otra forma?» Juan Carlos comenta que la teína y la cafeína son el mismo compuesto químico. Sara contesta que en el artículo se descarta que la cafeína sea la sustancia responsable del efecto en la microbiota, pues el café descafeinado también provoca dicho efecto. Son otras sustancias (metabolitos) en el café los causantes. Héctor Vives recuerda que el café estaba entre el grupo de sustancias probablemente cancerígenas, pero luego resultó que lo cancerígeno era el beber cosas muy calientes (mate, té, café, etc.), que aumenta la incidencia de cáncer de garganta.
Cebra pregunta: »No tiene que ver con los temas de hoy, ¿cómo se enfrían átomos o moléculas con un láser?» Contesta Juan Carlos que es algo muy sencillo. Los átomos, a diferencia de las moléculas, que tienen grados de libertad vibracionales y torsionales, solo tienen grados de libertad traslacionales; por ello, su temperatura solo depende de su velocidad (su energía cinética). Para los átomos se mide su velocidad (vector con una dirección dada) y se lanza un pulso láser en la dirección contraria; el momento lineal de los fotones de la luz reducen el del átomo, con lo que lo frenan. Sería como frenar una bola de billar usando una pistola de agua.
Héctor Vives comenta que no hace falta ni medir su velocidad, sino que se usan pulsos con una frecuencia concreta que solo son absorbidos por átomos que superan cierta velocidad mínima. Héctor Socas comenta que se usa una transición electrónica muy probable del átomo y se ajusta la frecuencia de los pulsos de luz un poquito hacia el azul de esa transición, de forma que si la dirección del átomo se dirige hacia el láser, el pulso logra frenarlo. Se usan dos láseres por cada una de las tres direcciones espaciales para lograr frenar a los átomos. Enfriar es equivalente a frenar. Juan Carlos recomienda a los oyentes que disfruten de algún libro básico de termodinámica estadística, pues es una materia poco conocida y abre mucho la mente.
Comento que no se enfrían átomos individuales, sino un gas de átomos. La temperatura se aplica a un conjunto de átomos en equilibrio. No se puede aplicar el concepto de temperatura a un solo átomo (aunque los pulsos del láser actúan sobre átomos individuales). Héctor Socas dice que ha visto artículos que asocian una temperatura a un átomo individual. Yo recalco que se trato de un abuso del lenguaje (de hecho, incluso se usa el concepto de temperatura para el espacio vacío usando variantes de la entropía de Bekenstein–Hawking para los agujeros negros). Pero, en rigor, un átomo no tiene temperatura. Héctor Socas enfatiza que la energía cinética es equivalente a la temperatura y que se puede asociar una temperatura a cualquier objeto que tenga energía cinética. Aunque se está abusando del lenguaje, se habla de temperatura de rayos cósmicos o incluso de neutrones individuales. Héctor Vives comenta que hay abusos de lenguaje similares cuando se reduce el espectro de un cuerpo negro con cierta temperatura a una frecuencia (o color), la de su máximo, y además se usa la idea para asociar una temperatura a un color.
Thomas Villa pregunta: «Si un ser muy bizarro hubiese realizado el experimento de doble rendija mientras acaecía la inflación [cósmica], ¿se observaría el [patrón] de interferencia en el CMB a pesar de que sería un dibujo no local?» Trato de contestar que, aunque ignoramos el modelo inflacionario correcto, los datos cosmológicos apoyan la existencia de una inflación cósmica que finalizó cuando el universo tenía 10⁻³⁰ segundos. Mientras que el fondo cómico de microondas se congeló a los 380.000 años, es decir, ~10¹³ segundos. No hay efectos de coherencia cuántica que sobrevivan a 43 órdenes de magnitud de evolución temporal (máxime cuando el universo estaba lleno durante todo ese tiempo). Héctor Socas cree que la pregunta se refiere al efecto de la desconexión causal entre las franjas del patrón de interferencia en la pantalla.
Cristina Hernandez García pregunta: «En el estado actual, la StarShip desechable todo y sin escudo térmico ¿podría situar en L2 un telescopio con el espejo y capacidades del GranTeCan? ¿Y uno superior CaraOscuraLuna?» Contestan Héctor Socas, Sara, Juan Carlos y Héctor Vives que no es cuestión fácil de contestar. Concluyen que no sería posible tomar el GTC y llevarlo al punto L2 (incluso montándolo a trocitos usando la Starship). Pero Héctor Socas destaca que sí sería posible montar un telescopio espacial con espejo y capacidades similares a GTC (cuyo espejo primario segmentado es de 10.4 metros), que sería mucho más ligero y con un diseño muy diferente, que se podría adaptar a la StarShip (de hecho, un Ariane 5, más pequeño que la StarShip, lanzó el telescopio JWST, cuyo espejo segmentado es de 6.4 metros).
Finaliza el programa con una conversación sobre la física youtuber Sabine Hossenfelder y su historia.
¡Que disfrutes del podcast!
Desde luego coincido con el modelo de cosmologia «chichinabo», un termino que desconocia pero que intuyo que se refiere a algo de dudosa calidad. Esta bien que salgan nuevas ideas y que haya discusion sobre ellas en los circulos cientificos, pero no esta bien que se *vendan* estas analisis muy preliminares como teorias definitivas y bien estructuradas alternativas a lambda CDM. No estan a tal nivel de sofisticacion explicativa, aun no. Antes de llegar a la prensa generalista estos articulos deberian de ser filtrados por multeplices capas de verifica y comprobacion, pero parece que hoy esta en vigor la regla «publica antes, verifica despues»…y eso hace un flaco favor al rigor y a la prudencia cientifica…
p.d.: mi pregunta estaba mal formulada, pido perdon. La pregunta en terminos mas exactos seria algo asi: «supongamos que se realizara un experimento de doble rendija cosmica en una geometria en fuerte expansion como la de la inflaccion: la distancias de los dibujos de interferencias se saldrian de las zonas en contacto causal y los margenes mas distantes de dicha interferencia serian divididos a una distancia mayor de la percorrible segun distancia=c*t. Se causarian de toda forma patrones de interferencia cosmicas aunque con lineas geodesicas tan divergentes entre si? Se puede avanzar una respuesta o es imposible de momento contestar a una pregunta similar?».
Lo curioso es que al final de la inflaccion ese patron de interferencia deberia volver en contacto causal y podria ser observado de forma entera por alguien que lo tenga entero en su cono de luz del pasado. Pero ese patron de interferencia se hubiese realizado en una zona sin contacto causal? La funcion de onda que describe esa interferencia seria entonces esparcida por una region cuyos margenes en principio estarian fuera del contacto causal mientras se realizaba esa interferencia. Si se realizara ese patron, no seria una comunicacion no local? Uno puede decir que «en principio si, pero en practica no, porque la mediccion se realizaria luego, por alguien que pudiese verlo en su cono de luz pasado» y ok, pero en principio si que se realizo un dibujo predecible sin un contacto causal entre sus partes…ujm, no se que pensar…un saludo y gracias! 😉
Thomas, parece que interpretas el patrón de interferencia como algo físico, como una pantalla rígida marcada con el patrón que una vez formada tras muchos experimentos queda fija y se puede expandir junto con el espacio. No es así. Así que tu pregunta no tiene sentido y, por tanto, no tiene respuesta. Recuerda, para que se forme un patrón de interferencia tiene que haber una interferencia, que es local y causal; no puede haber una interferencia entre ondas en conos de luz sin conexión causal, luego no puede existir un patrón de interferencia.
Gracias, Francis! Que interesante, la respuesta! 🙂 es que para mi esa «pantalla rigida» es mas bien algo matematico: es una superficie de Cauchy de tipo espacio, un corte universal a t=constante, que es donde la unitariedad en principio deberia de conservarse, aunque sea inalcanzable recuperarla a nivel local. Ahi, en esa superficie de Cauchy, en principio seguiria existiendo una funcion de onda, aunque aparezca «congelada» fuera de los conos de luz locales. Ahora bien, si dos observadores realizaran mediciones matematicas ideales a esa funcion de onda en dos lugares desconectados, seguirian viendo formandose dos partes de un patron de interferencia o no? Lo mas razonable, coincido, es que NO se formaran. Pero supongamos que lograsemos recuperar toda la informacion en esa superficies de Cauchy de tipo espacio. Seria posible en linea de principio reconstruir esa interferencia? O mas bien NO seria posible? Y en este caso, la interferencia se perderia debido a…la inflaccion? La geometria impactaria esa funcion de onda? Es ahi donde quiero llegar, ese es el meollo de la cuestion que no logro desentranar… 🙂
Thomas, por lo que entiendo, tu pregunta es la siguiente: si la interferencia cuántica funciona bien en un espaciotiempo de Minkowski, ¿también funcionará en un espaciotiempo de tipo de Sitter? Sin una teoría cuántica de la gravitación es imposible conocer la respuesta. La esperanza de muchos físicos es que sí, que así sea. Pero casi toda la investigación actual se limita a teorías de campos conformes (que son los más sencillos) y en ellos todavía no se ha logrado la respuesta definitiva.
Pues si, profe, es una manera brillantemente sintetica de enunciar mi pregunta! 🙂 No lograba expresarla «en palabras» y recurri a la metafora estupida del patron de superposicion a escala cosmologica al finalizar la inflaccion. Me resultaria mas facil con las formulitas, supongo, que por algo se inventaron 🙂 Para mas contexto, la duda me surgio leyendo el parrafo 2.10 y 2.12 de Moda, Fe y Fantasia, en particular las paginas 279-283. Creo que lo que se requiere es un observador que no pueda respetar la localidad para recuperar toda la informacion, y esto seria algo bastante fuerte como para afirmar: la unitariedad en de Sitter se podria recuperar integralmente solo para alguien que no pudiese existir: for any practical purpose (FAPP) no seria recuperable (vease las paginas 285-286 de «Moda, fe y fantasia»…)
Thomas, yo tengo la versión en inglés, donde los apartados 2.10 y 2.12 sobre entrelazamiento están entre las páginas 182 y 204, mientras las páginas de 279 a 286 sobre energía oscura están en los apartados 3.7 y 3.8. No entiendo tu comentario retórico: «un observador no local recupera ¿qué información? y (no entiendo) la unitariedad ¿de qué? en de Sitter se podría recuperar ¿integralmente? solo para que alguien que ¿no pudiese existir? que en la práctica ¿no sería recuperable?» Incomprensible.
Pues quiero decir que en de Sitter cada observador, con su cono de luz futuro, podria acceder solo a parte de la funcion de onda, pero no habria ningun observador cuyo cono de luz podria abarcar toda la funcion de onda. Segun el principio de covariancia, me temo que para cualquier finalidad practica la informacion es inasequible: se necesitaria recuperar toda la informacion esparcida a lo largo de la superficie de Cauchy de tipo espacio (que corresponde al limite newtoniano c=∞) para que para el el sistema siga evolucionando de forma previsible y deterministica. El Ireneo Funes del cuento de Borges «Funes el memorioso» (https://es.wikipedia.org/wiki/Funes_el_memorioso) no podria existir ni en principio porque necesitaria recuperar informaciones a una velocidad mayor que la de la luz como para poder saber todo del pasado y calcularlo todo del futuro. Quizas sea un limite muy fuerte, una imposibilidad fisica…no se, seguire pensando sobre el asunto, muchas gracias por los feedback! 🙂
Thomas, no entiendo la dificultad, en los experimentos de laboratorio tipo Bell se consideran dos sistemas causalmente desconectados y se analizan sin ningún problema (por supuesto, a posteriori). La física cuántica funciona a la perfección en dicho caso (sin necesidad de ningún superobservador que durante el experimento acceda a la información causalmente desconectada, pues basta un observador que lo haga a posteriori).
Thomas, también es lo que dice Nicolas Gisin.
https://www.youtube.com/watch?v=7nQvizcxnsw
(Ya lo puse en otra ocasión. Disculpen mis regüeldos).
Bueno, es que si tomamos un estado entrelazado 1/√2 (I↑> x I↓> – I↓> x I↑>) y decimos que 1/√2 (I↑> x I↓>) se separa de 1/√2(I↓> x I↑>) segun un factor de escala del tipo inflaccion exp(2 H t), entonces se hallaran pronto aislados cada uno en su horizonte dado por el radio c/H. Llamemos los dos horizontes c/H zona en contacto causal A y zona en contacto causal B. Supongamos entonces que se realizen las medidas R1 en el eje Y sobre 1/√2 (I↑> x I↓>) y resulte que es R1= I↑> en la zona de contacto causal A. Tambien otro aparato realiza la mediccion R2 (por casualidad) en el mismo eje Y sobre 1/√2(I↓> x I↑>) y resulta que le sale I↓> en la zona de contacto causal B. Ahora bien, supongamos que la inflaccion acaba y al rato las zonas en contacto causal A y B se juntan en la zona de contacto causal A∪B=C. Entonces se comparan los resultados de R1 y R2 y se dan cuenta que cada uno (R1 y R1) por casualidad habian observado una mitad de un estado entrelazado 1/√2 (I↑> x I↓> – I↓> x I↑>) en la misma base, el eje Y. Pero las dos regiones en la mediccion estaban fuera de todo contacto causal. Es un comportamento decididamente no local, aunque (claro esta) no se puede emplear para enviar informaciones con velocidad v>c, eso queda claro. Pero aun asi es muy muy bizarro. Tambien me resulta muy raro que al final de la historia del universo, cuando asintoticamente todo sera diluido y solo quedara lambda, habra zonas que efectivamente se quedaran fuera de contacto causal de radio dado por c/H, y puede que hayan sistemas entrelazados cuya funcion de onda se qede en parte en r>c/H. Esa parte es como si hubiese entrado en un agujero negro y se ha perdido para siempre…no se, cuanto mas estudio esas cosas mas me siento confundido ajaja perdona y gracias! 🙂
Thomas, cuidado, si tienes el estado entrelazado 1/√2 (|↑>|↓> – |↓>|↑>) no puedes separar 1/√2 (|↑>|↓>) y 1/√2 (|↓>|↑>), esto no tiene ningún sentido. El estado entrelazado corresponde a un sistema con dos partes (subsistemas), sean A y B, y lo único que puedes separar son dichas partes (cúbits, espines, o lo que representen las flechas).
Separas a gran distancia A y B. Mides A en el eje Y resultando R1 = ↑ que indica que A estaba en el estado |↑> y mides B en el mismo eje Y (esto es imposible porque A y B están separados a gran distancia y es imposible asegurar que sea el mismo eje) resultando R2 = ↓ que indica que B estaba en el estado |↓>. Por alguna razón los sistemas A y B entran en contacto causal. Los resultados R1 y R2 ya obtenidos no cambian (lo que le pase a A y B tras la medida es irrelevante para dichos resultados). Lo que describes no tiene ningún sentido (hablas de los resultados como si fuesen sistemas físicos, pero son solo información obtenida tras la medida). Además, tras la medida los sistemas A y B dejan de estar entrelazados.
Todo lo que describes no tiene ningún sentido. Te recomiendo estudiar algún libro elemental de física cuántica antes de ponerte a perder el tiempo pensando este tipo de sinsentidos. El conocimiento te hará progresar. La palabrería sin contenido solo te hará perder tu valioso tiempo.
Ah vale, me equivoque entonces a entender el entrelazamiento 1/√2(AI↑>xBI↓>)-1/√2(AI↓>x BI↑>) y los dos sistemas son A y B entonces…habia entendido mal, perdona! Ahora vuelvo a considerar la cosa y veo si lo he entendido bien…que tramposa que es, la cuantica ajaja! 🙂
https://arxiv.org/abs/quant-ph/0201134, no sabía y me parece impresionante que dos partículas (fotones) que jamás interaccionaron, ni compartieron preparación, ni nada, puede ser que muestren correlaciones cuánticas en los experimentos.
P, el intercambio de entrelazamiento (entanglement swapping) se usa en la mayoría de los algoritmos cuánticos que se ejecutan en ordenadores cuánticos hoy en día. No tiene nada de impresionante o sorprendente, solo es física cuántica aplicada. La idea de que el «entrelazamiento» es algo «mágico» no tiene ningún sentido; el entrelazamiento es algo tan natural en mecánica cuántica que entre 1925 y 1935 no recibió ningún nombre, aunque todo el mundo lo usaba, porque no era necesario nombrar lo que es trivial; de hecho, hasta la década de los 1960, casi nadie usaba el término entrelazamiento en sus artículos sobre física cuántica (a pesar de que casi todos lo usaban sin nombrarlo).
Pero ten en cuenta, P, que partes de dos fotones entrelazados ya…Al final, la correlación la tienes que preparar sí o sí, otra cosa es que obviamente la correlación cuántica la logran llevar a dos fotones que finalmente no interaccionaron, es decir, que tal correlación es una realidad física.
Cierto Pedro, es una realidad física, las correlaciones cuánticas entre partículas que jamás interaccionaron por medio del entanglement swapping son una realidad física, pero que sea una realidad física quiere decir que, a efectos prácticos, dos fotones que se comportan cuánticamente correlacionados tras interaccionar localmente son indistinguibles de esos mismos dos fotones mostrando la misma correlación cuántica sin interacción de ningún tipo.
O lo que es lo mismo, el conjunto de datos experimentales y predicción que conforman QM debería poder explicarse con la misma precisión tanto con interpretaciones locales como interpretaciones no locales, y eso me confunde.
Francis, ¿qué diferencia la propuesta de Wiltshire de un propuesta con energía oscura variable (no igual a una constante cosmológica)?
Diría que Wiltshire exagerá al afirmar que su modelo no contiene energía oscura, es cierto que en las ecuaciones que propone no aparece un término en el tensor en forma de constante cosmológica, pero no quiere decir que su modelo no contenga energía oscura, estrictamente quiere decir que su modelo no contiene energía oscura «en forma de constante cosmológica».
Entiendo, a lo mejor me equivoco, que tomando el principio de equivalencia un modelo con energía oscura variable puede ser reinterpretado como un modelo con efectos gravitatorios cosmologicamente relevantes.
¿Afirmar que no contiene energía oscura de manera general por no contener un término de constante cosmologica dirías que es correcto?
P, en las cosmologías con energía oscura variable (que se están explorando con observaciones) solo se considera la variación temporal de la energía oscura (cómo cambia con z). La propuesta de Wiltshire no afecta de forma directa a la energía oscura (que variaría en tiempo y en espacio), solo se ve afectada de forma indirecta (a pesar de que es el tema del que se han hecho eco muchos medios). Por ello tienes razón en tu intuición, Wiltshire en ningún momento afirma que su propuesta no tenga constante cosmológica (de hecho la usa para lograr un universo plano), solo afirma que gran parte de la aceleración cósmica observada es debida a los vacíos de la web cósmica, en lugar de a la constante cosmológica. Por tanto, no se puede afirmar (como han hecho muchos divulgadores) que el modelo de Wiltshire no contenga energía oscura (otra cuestión diferente es que su densidad de energía actual pueda ser muy pequeña; por ejemplo, cuando estima 100 ΩM = 46.2 ± 0.9 con P+1690, el resto del contenido del universo es constante cosmológica.
Genial Francis, muchas gracias, justo estaba teniendo un caluroso debate sobre ello, es obvio el tremendo abuso de lenguaje. (La gente se deja llevar por el «without dark energy»…)
Hola Francis, Cuestión de aclarar conceptos… entendí bien a Héctor diciendo que la mayoría de las simulaciones de la evolución del universo se hacen utilizando física Newtoniana por falta de capacidad de cálculo??? … por favor, aclárame una cosa… no sería como utilizar la mecánica clásica para la tecnología GPS? Es decir, las imprecisiones si no se tienen en cuenta las ecuaciones de Einstein serían groseras en distancias ridículas como la de los satélites y los dispositivos… entiendo que para que esta nueva forma de modelo cosmologico propuesta en el artículo tenga algo más de credibilidad, deben hacer simulaciones prácticamente te desde el big bang, pero me asombra (disculpa la ignorancia) que se utilice física Newtoniana para hacer simulaciones y se le otorgue tanta presunción de credibilidad a las mismas. Me gustó el podcast, aunque creo que Héctor ha estado algo tibio en la defensa del artículo (al menos de la parte salvable, en su opinion). Un saludo.
Juan Ramón, lo primero, no existe la cosmología newtoniana, luego hay que usar la cosmología relativista (a gran escala). Lo segundo, se usan simulaciones magnetohidrodinámicas newtonianas en lugar de relativistas (a pequeña escala), porque bajo la hipótesis de gravitación débil, no hay diferencia entre la gravitación relativista, postnewtoniana y newtoniana. Y, lo tercero, para el realismo de estas simulaciones se usan modelos efectivos simplificados para los fenómenos relativistas, como la interacción entre agujeros negros supermasivos y sus galaxias.
Como bien comenta Héctor, en las grandes simulaciones siempre se usa la MHD newtoniana porque usar la MHD en relatividad general (GRMHD) tiene un coste demasiado alto (por ello el uso de GRMHD se limita a pequeñas simulaciones, que ayudan a derivar los modelos efectivos simplificados). Por tanto, en proyectos como IllustrisTNG se usa gravitación newtoniana en un marco cosmológico relativista.
Gracias por la aclaración Francis. En todo caso y un poco en contra de tu opinión a cerca de que el artículo sólo es «ruido» escuchando a Héctor si parece que pueda tener algo de «utilidad» para continuar esta línea de investigación aún sin reconocer la inexistencia de la energía oscura. Un saludo.
Hola, Francis que opinas de los excitones fraccionarios que
comentan.
Un saludo y gracias
Miguel, se han publicado en Nature (https://www.nature.com/articles/s41586-024-08274-3; https://arxiv.org/abs/2407.18224) indicios experimentales de una predicción teórica de Laughlin en 1984 (obtuvo el premio Nobel en 1988). Tras muchas búsquedas infructuosas, el nuevo artículo es prometedor. Pero tiene que ser replicado y confirmado.
Tremendo cubo de mier(piiiiii) le ha echado Villatoro a la filosofía postmoderna en el 494 sin venir a cuento. Me iba a tirar a la yugular, pero ya no tengo hambre. Dejémoslo en que la filosofía postmoderna no era eso.
Como en algo hay que entretenerse, un regalito a Socas combinando sus aficiones.
https://i.ibb.co/sH5rtpW/All-Stars.jpg
Perdón, Masgüel, si he ofendido a algún filósofo. En futuros podcast me tengo que abstener de opinar sobre Filosofía.
Hombre, no me corresponde a mí perdonar la ofensa. Los fílósofos canónicos de la corriente (que nunca se reconocieron como bajo ese rótulo) están todos muertos. Además entiendo que te metiste con ellos para evitar el balonazo en la cara a Socas por elegir un tema tan especulativo. Que «postmoderno» se haya convertido en un insulto es culpa de un puñado creciente de autores, empezando por Sokal, a los que sentó muy mal el antirrealismo, constructivismo y relativismo de aquellos franceses (no solo, también de los neopragmatistas norteamericanos, pero estos escribían con un estilo diáfano y era más difícil meterse con ellos por ese motivo). Manuel Arias Maldonado, en la presentación de «Contra Babel» de Manuel Toscano, en la librería Luces de Málaga, a la que asistió su paisano Antonio Diéguez, ante los variados ataques que sufrieron y el desconcierto general de los presentes, se puso firme y dijo que «los postmodernos también tenían cosas importantes que decir». Espero que, tras el vapuleo actual, la historia los devuelva al lugar que merecen. Y si no, pues tampoco es asunto mío, aunque coincida en buena medida con sus ideas.
Porfavor, no se sienta intimidado para hablar de filosofía lo que estime oportuno. Faltaría más. Pero aténgase a las consecuencias 🙂
Como hago yo al no seguir los sabios consejos del programa. Lawsonibacter asaccharolyticus no prospera en mi intestino, porque tomo la cafeína en comprimidos, evitando el café y compensado en parte que tampoco «necesito divertirme para beber». Del precio metabólico es testigo cualquier espejo.