
Te recomiendo disfrutar del episodio 530 del podcast Coffee Break: Señal y Ruido [iVoox A, iVoox B; ApplePod A, ApplePod B], titulado “Estalagmitas; Deepmind; Entrelazamiento y Gravedad; Gravitones; Halloween”, 30 oct 2025. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: Recordatorio Premios iVoox (5:00). Apuesta 3I/ATLAS (8:00). La forma de las estalagmitas (00:17). Cara B: La forma de las estalagmitas (Continuación) (00:00). Aprendizaje multiespectral de Google Deepmind (09:00). Entrelazamiento cuántico en la gravedad vs gravitación cuántica (39:00). Absorción de gravitones por fotones en LIGO (1:11:00). Halloween en el planetario (1:17:00). Señales de los oyentes (1:34:00). Imagen de portada desarrollada con IA generativa por Mayra Schwarzschild. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».
¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 368! Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!
Descargar el episodio 530 cara A en iVoox.
Descargar el episodio 530 cara B en iVoox.
Como muestra el vídeo participan por videoconferencia Cecilia Garraffo @CeciGarraffo / @CeciGarraffo.bsky, Juan Carlos Gil Montoro @ApuntesCiencia / @ApuntesCiencia.bsky / @ApuntesCiencia@astrodon, Gastón Giribet @GastonGiribet, Borja Tosar @BorjaTosar / @BorjaTosar.bsky / @BorjaTosar@astrodon (solo cara B), y Francis Villatoro @eMuleNews / @eMuleNews.bsky / @eMuleNews@mathstodon. Por cierto, agradezco a Manu Pombrol @ManuPombrol el diseño de mi fondo para Zoom; muchas gracias, Manu.

Tras la presentación, un par de breves. Quiero suponer que todas las cientófilas de pro ya han votado por a nuestro podcast en los Premios iVoox a Los podcasts de la audiencia. Pero por si acaso aún queda alguna persona que no lo haya hecho, le recuerdo que puedes votar en el enlace https://go.ivoox.com/wv/premios25?c=3556, un enlace directo que tenéis en nuestra web señalyruido.com. Se puede votar hasta el 3 de noviembre de 2025 en este año en el que iVoox cumple 15 años y tu podcast favorito cumple 10 años. Por supuesto, puedes votar a varios podcast, pues no hay límite en el número a los que puedes votar.

También os recuerdo que aún sigue abierta la apuesta de Héctor Socas de 10 a 1 contra los loebianos que creen que el cometa interestelar 3I/ATLAS es una nave espacial clamufada que cambiará su trayectoria tras su perihelio dirigiéndose hacia la Tierra. Porque hablar por hablar es gratis, así que Héctor apuesta 1000€ contra 100€ de que a finales de noviembre no habrá ningún cambio de rumbo del cometa. Para participar hay que enviar los 100€ por PayPal a podcastcoffeebreak@gmail.com antes del perihelio (el 29/10). ¡Se aceptan hasta 8 participantes! (5000€ de Héctor y 3000€ de Gastón). El cometa 3I/ATLAS es un mensajero de un sistema estelar muy lejano en el espacio y en el tiempo. Así que está siendo estudiado con mucho detalle con objeto de que aprendemos muchas cosas sobre dicho sistema estelar.

Nos comenta Juan Carlos un artículo en PNAS sobre la forma ideal de las estalagmitas. Estos espeleotemas se apoyan en el suelo, mientras las estatactitas cuelgan del techo (se conocen diez tipos de espeleotemas, llamados flores, palomitas, coladas, …). Las estalactitas son capilares (tubitos huecos) por los que gotea el agua (algunas tienen forma muy alargada como una pajita para beber un refresco). En 2005 se resolvió el problema de la forma ideal de las estalactitas: su forma sigue una ley de semejanza que relaciona el radio y la altura con una potencia de 4/3 (r = h4/3). El artículo es Martin B. Short, James C. Baygents, …, Raymond E. Goldstein, «Stalactite Growth as a Free-Boundary Problem: A Geometric Law and Its Platonic Ideal,» Physical Review Letters 94: 018501 (07 Jan 2005), doi: https://doi.org/10.1103/PhysRevLett.94.018501.

Las estalagmitas son columnas de carbonato cálcico crecen por deposición de agua sobresaturada que gotea desde el techo de una cueva. En la Naturaleza se observan tres formas básicas de las estalagmitas: planas, columnares y cónicas. En 1965 Franke propuso que existe una forma «ideal» de una estalagmita, pero no se conocía su expresión analítica. Los resultados de simulaciones numéricas y las expresiones analíticas aproximadas apuntaban a la forma columnar como la forma ideal. El nuevo artículo combina la geoquímica, la dinámica de fluidos y la cinética de la precipitación para desarrollar una teoría unificada que explica la diversidad morfológica observada mediante un único parámetro adimensional, el número de Damköhler (Da). Se parte del modelo de Franke para la película de agua en flujo laminar sobre una estalagmita axialsimétrica. Las ecuaciones de conservación y de transporte se adimensionalizan en función del parámetro Da = k A/Q, donde k es la constante de reacción, A es el área de la base y Q es el caudal de goteo. Se obtienen tres regímenes para la forma ideal: plana (Da > 1), columnar (Da = 1) y cónica (Da < 1). Por cierto, en las simulaciones numéricas se imponían (de forma no explícita) la condición Da = 1, por ello solo se observaba la forma columnar.

Se confronta el resultado analítico con las observaciones en cuevas, incluyendo tomografías de muestras reales de la cueva de Postojna (Eslovenia) y un análisis isotópico basado en el cociente isotópico relativo del carbono-13 (¹³C) respecto al carbono-12 (¹²C), el llamado δ¹³C. Resulta que el modelo analítico reproduce con notable precisión las morfologías naturales. Las estalagmitas de cima plana surgen cuando las gotas se dispersan sobre un área amplia (presentan valores constantes de δ¹³C en su zona central). Las columnarias corresponden al límite de goteo puntual y las formas cónicas, más puntiagudas y rápidas en crecimiento, se explican por un cambio en la cinética de precipitación: la transición entre una reacción limitada por la conversión de ácido carbónico (propia de las estalactitas) y una reacción controlada por la superficie (propia de las estalagmitas). Las estalagmitas cónicas y columnares muestran variaciones parabólicas de δ¹³C (esto podría tener implicaciones en paleoclimatología).
Sin lugar a dudas un trabajo muy bonito que ofrece una primera solución analítica completa al problema del crecimiento de estalagmitas, unificando observaciones empíricas y simulaciones numéricas. El número de Damköhler emerge como el parámetro fundamental que gobierna la transición continua entre formas planas, columnares y cónicas. El artículo es Piotr Szymczak, Anthony J. C. Ladd, …, Dean Pekarovič, «Shapes of ideal stalagmites,» PNAS 122: e2513263122 (16 Oct 2025), doi: https://doi.org/10.1073/pnas.2513263122.

Cecilia nos cuenta un artículo sobre aprendizaje multiespectral de Google DeepMind. Las imágenes de satélite para teledetección son multiespectrales, con múltiples bandas adicionales a los colores R, G y B, llamadas NIR, SWIR, NDVI, NDWI, NDMI, etc. Los grandes modelos de lenguaje multimodales generales (como Gemini o GPT) solo procesan imágenes RGB y no pueden aprovechar estas bandas adicionales. Los modelos de lenguaje específicos para teledetección (SatMAE, Prithvi, SpectralGPT, HyperSIGMA, etc.) son capaces de usarlas, pero suelen ser modelos más pequeños que los modelos generales. El nuevo artículo propone usar modelos multimodales generalistas ya entrenados solo con imágenes RGB (se usa Gemini 2.5) para interpretar imágenes multiespectrales transformadas en pseudoimágenes RGB y acompañadas de descripciones textuales detalladas de su contenido geofísico. De este manera se usa una estrategia zero-shot (cero ejemplos), en la que no usa ningún ejemplo en el entrenamiento (ni se usa ningún reentrenamiento).

Se usa Gemini 2.5, sin modificar ni su arquitectura ni sus pesos, para interpretar dos bancos de imágenes de Sentinel-2 con 12 bandas: BigEarthNet (43 y 19 clases, multietiqueta) y EuroSat (10 clases, monocategoría). Como métrica se usa la puntuación F1 (como muestra la tabla). En BigEarthNet, el F1 de Gemini 2.5 pasa de 0.388 (RGB) a 0.429 (multiespectral) para 43 clases, y de 0.414 a 0.453 para 19 clases, superando modelos como GPT-4V o Qwen-VL-Chat. En EuroSat, la precisión aumenta de 66.3 % a 69.1 %, superando a otros métodos zero-shot inductivos como ZLaP. Los estudios de ablación muestran que cada índice espectral aporta mejora, pero la combinación de todos (RGB + NDVI + NDWI + NDMI) ofrece los mejores resultados. Los ejemplos visuales evidencian que las bandas extra ayudan a resolver ambigüedades frecuentes (p. ej., distinguir bosques de masas de agua).
En conclusión, un modelo multimodal generalista muy grande puede adaptarse a imágenes de sensores a las que no hay constancia que haya sido expuesto durante su entrenamiento (en mi opinión, que disiente con la de Cecilia, no hay pruebas de dicha afirmación). Basta un sencillo preprocesamiento de entrada (usar pseudoimágenes RGB) y un prompting que les de contexto (que explique dichas imágenes). Esta estrategia permite usar modelos de propósito general como Gemini 2.5 en aplicaciones de teledetección, sin incurrir en el alto costo que exige entrenar un modelo específico para cada sensor. Así se abre una vía práctica para aplicar inteligencia artificial multimodal avanzada al análisis geoespacial. El artículo es Ganesh Mallya, Yotam Gigi, …, Anelia Angelova, «Zero-Shot Multi-Spectral Learning: Reimagining a Generalist Multimodal Gemini 2.5 Model for Remote Sensing Applications,» arXiv:2509.19087 [cs.CV] (23 Sep 2025), doi: https://doi.org/10.48550/arXiv.2509.19087.
Cecilia nos cuenta que está investigando en el uso de grandes modelos de lenguaje y aprendizaje contrastivo (contrastive learning) para procesar datos astrofísicos de rayos X. El aprendizaje contrastivo es de tipo semisupervisado y se usa para aprender representaciones útiles de los datos mediante la comparación entre parejas de ejemplos similares (como el mismo evento astrofísico observado en rayos X por dos instrumentos diferentes). Además, están usando grandes modelos de lenguaje multimodales generalistas con la técnica de zero-shot con pseudoimágenes contextualizadas. Sus primeros resultados (aún sin publicar) van en la línea del nuevo artículo, los modelos generalistas obtienen mejores resultados. No se sabe el porqué. Pero a ella le parece un campo de investigación muy prometedor.

Me toca comentar un artículo sobre el entrelazamiento cuántico entre campos cuánticos en el contexto de una gravedad clásica. En 1957, Richard Feynman propuso un experimento mental para estudiar si la gravitación es cuántica o clásica: poner dos masas en superposición cuántica mediada por la gravitación. La idea es que una interacción clásica y local (LOCC, por Local Operations and Classical Communication) no puede producir entrelazamiento cuántico. La mayoría de los estudios previos se han centrado en la parte LO (que la interacción sea local). Un nuevo artículo en Nature se centra en la parte CC (que el entrelazamiento este mediado por un canal de comunicación clásico). Un canal de comunicación cuántico puede entrelazar las masas, pero ¿un canal de comunicación clásico también puede hacerlo? Sí, según el nuevo artículo, aunque con un menor grado de entrelazamiento. Luego los experimentos que sigan la propuesta de Feynman además de mostrar entrelazamiento tienen que mostrar un grado suficiente de entrelazamiento. El nuevo artículo calcula en el marco de la teoría cuántica de campos el entrelazamiento entre dos masas bajo la hipótesis de que la gravitación es clásica.

Aziz y Howl realizan el cálculo en analogía a cálculos en electrodinámica cuántica (QED) que usan una aproximación clásica para el campo electromagnético, aunque suponen que las partículas (fermiones) son cuánticas. Se realiza un cálculo análogo para la gravitación lineal (basada en la linearización de la ecuación de Einstein que describiría al gravitón) usando una aproximación clásica para el campo gravitacional, suponiendo que las partículas masivas (bosones) son cuánticas. El campo gravitacional no se cuantiza, no se usan propagadores para los gravitones, pero se usan propagadores clásicos. Incluso sin gravitones, la interacción gravitacional puede entrelazar los campos cuánticos de materia, aunque solo a cuarto orden en el desarrollo perturbativo. Este entrelazamiento cuántico se observa en las fases de la función de onda; para un canal clásico la fase calculada es ϑ y para un canal cuántico (gravitones) es φ. Para masas cercanas a la masa de Planck (~10⁻⁸ kg) y duraciones cortas (menos de un segundo), la contribución clásica puede ser significativa, de modo que la mera observación de entrelazamiento en futuros experimentos no bastaría para probar la cuantización de la gravedad. La figura muestra el cociente ϑ/φ y una línea roja que separa los regímenes clásico y cuántico.
Un trabajo teórico interesante, que viene a colación de los intentos recientes por intentar replicar en laboratorio el experimento mental de Feynman. Los futuros experimentos de entrelazamiento gravitacional encontrarán dificultades a la hora de entrar en el regimen cuántico, pero no hay ninguna ley física que lo prohíba. El artículo es Joseph Aziz, Richard Howl, «Classical theories of gravity produce entanglement,» Nature 646: 813-817 (22 Oct 2025), doi: https://doi.org/10.1038/s41586-025-09595-7; más información divulgativa en Zachary Weller-Davies, «Is there a ‘smoking gun’ test for quantum gravity? Quantum-entanglement experiments have been proposed as a way to test whether gravity is quantum, but getting definitive proof might be harder than previously thought,» Nature 646: 809-811 (22 Oct 2025), doi: https://doi.org/10.1038/d41586-025-03132-2.

Nos cuenta Gastón un artículo en Physical Review Letters sobre la especulativa absorción de gravitones por fotones en interferómetros láser de ondas gravitacionales como LIGO. No se ha observado el gravitón, pero se puede interpretar que las ondas gravitacionales son gravitones. Dado que una gravitonda observada por LIGO tiene una energía del orden de varias masas solares (pongamos 3 M⊙) y una frecuencia típica de cientos de hercios (pongamos 150 Hz), su energía total es de 2 × 1047 J, que equivale a unos 2 × 1078 gravitones (este número es comparable al número de fotones emitidos por todas las estrellas de una galaxia durante un milenio). Observar un solo gravitón es imposible y lo será durante siglos.
En el nuevo artículo, Ralf Schützhold especula con estudiar la emisión o absorción estimulada de gravitones por medio de pulsos de luz en una configuración interferométrica. Se propone un modelo muy sencillo para la variación temporal del campo gravitacional (dh/dt) que predice una transferencia de energía cuantizada ± ℏ ω entre la luz y la onda gravitacional. Para ello se requiere usar una serie de espejos a 45° que alternan la dirección del haz de forma sincronizada con la fase de la onda gravitacional de tal forma que una resonancia amplifique la variación de la fase de la luz para que sea detectable en el interferómetro. Los cálculos para gravitondas de amplitud h ∼ 10−22, frecuencias de kHz y brazos efectivos de millones de kilómetros (los de LIGO tienen 2 × 4 km × 290 ≈ 2300 km) se estiman variaciones del orden de 10−7 Hz, que podrían ser detectadas por futuros instrumentos.
Gastón es muy escéptico respecto a este trabajo. El artículo es Ralf Schützhold, «Stimulated Emission or Absorption of Gravitons by Light,» Phys. Rev. Lett. 135: 171501 (22 Oct 2025), doi: https://doi.org/10.1103/xd97-c6d7. Más información divulgativa y optimista en André G. S. Landulfo, «Seeking Signatures of Graviton Emission and Absorption,» APS Physics 18: 175 (29 Oct 2025), https://physics.aps.org/articles/v18/175.

Borja nos cuenta algunas historias de Halloween relacionadas con científicos que ha recopilado para una charla en el Planetario de A Coruña. Nos comenta el epitafio de Isaac Newton y el de Alexander Pope que lo dedicó a Newton. Además, nos comenta que la sonda New Horizons lleva cenicas del astrónomo Clyde Tombaugh, descubridor de Plutón, hacia el espacio exterior del Sistema Solar.
También nos cuenta que el astrónomo y geofísico Eugene Shoemaker se inspiró en el cráter Barringer en Arizona para proponer que los cráteres lunares no tenían origen volcánico, sino que eran debidos a impactos. El cometa Shoemaker que él descubrió, se descubrió que iba a impactar contra Júpiter. En la sonda espacial Lunar Prospector que buscaba agua cerca del Polo Sur de la Luna y que acabó impactando contra la Luna produciendo un impacto. Pues dicha sonda contenía cenizas de Shoemaker.

Me toca comentar de forma breve un artículo publicado en Nature sobre la ventaja cuántica práctica de Google Quantum AI. Dicho artículo ya lo comenté en el episodio 522 (LCMF, 05 sep 2025). Copio aquí lo que comenté entonces. Se usó su ordenador cuántico Willow de 103 cúbits superconductores para medir correladores fuera de orden temporal (OTOC). Se logra una ventaja cuántica con respecto a los superordenadores clásicos más poderosos para los operadores OTOC de segundo orden (para los de primer orden no hay tal ventaja y los de tercer orden no se pueden implementar en un ordenador cuántico tan pequeño). Este hito se considera un paso hacia la ventaja cuántica verificable en tareas útiles (asumiendo que las simulaciones de sistemas cuánticos son algo «útil»). El artículo (que se publicará en Nature) es Google Quantum AI and Collaborators, «Constructive interference at the edge of quantum ergodic dynamics,» Nature 646: 825-830 (22 Oct 2025), doi: https://doi.org/10.1038/s41586-025-09526-6.
El efecto mariposa en los sistemas caóticos (clásicos) se caracteriza mediante los exponentes de Lyapunov, que miden cómo se separan en tiempo trayectorias que parten de condiciones iniciales muy cercanas. Los llamados exponentes de Lyapunov cuánticos se definen a partir de la evolución temporal de los llamados operadores de correlación fuera del orden temporal (OTOC, por Out-of-Time-Order Correlators), que describen como evoluciona en el tiempo la no conmutatividad cuántica durante el llamado scrambling de la información cuántica (no suele traducir scrambling, pero es el mezclado de información que conduce a un incremento de la entropía de entrelazamiento).

Sin entrar en la definición matemática de los operadores OTOC, se debe destacar que se pueden definir operadores de diferente orden, OTOC(1), OTOC(2), …, OTOC(k), … La figura (abajo) ilustra mediante interferómetros un operador OTOC(1) a la izquierda y otro OTOC(2) a la derecha. Estos operadores se usan en simulaciones de sistemas cuánticos formados por muchos cuerpos, por ejemplo, materiales superconductores y física de la materia condensada. Los operadores son continuos, pero en simulaciones cuánticas se aproximan con operadores análogos que actúan sobre cúbits; en dicho caso se implementan con puertas de Pauli, lo que sería análogo a usar la representación de Heisenberg, en la que la función de onda es estacionaria y son los observables los que evolucionan en el tiempo).

En Willow se ha simulado un sistema cuántico ergódico (es decir, aleatorio), cuya simulación clásica es muy costosa (gracias a su aleatoriedad, no se pueden aprovechar simetrías para reducir el coste). Los resultados no se pueden verificar con una simulación clásica en un superordenador, pero su comportamiento estadístico es el esperado (lo que se asume como validación de su corrección). Según los autores, los operadores OTOC(2) son ideales para demostrar (en un futuro no muy lejano) la ventaja cuántica práctica. Por supuesto, lo ideal sería demostrarla en una problema cuya solución se pueda verificar con un ordenador (clásico) de forma eficiente; pero ese será un paso futuro muy posterior.

Mi intención comentar también otro artículo de Google Quantum AI, sobre interferometría cuántica decodificada (Decoded Quantum Interferometry, DQI), que combina transformadas de Fourier cuánticas con técnicas de decodificación de códigos clásicos para traducir problemas de optimización en problemas de decodificación. Los DQI muestran ventaja cuántica y se pueden usar para implementar algoritmos para ciertos problemas. En el artículo se aplican los DQI a dos problemas, la intersección óptima de polinomios (OPI por Optimal Polynomial Intersection) y la satisfacibilidad de circuitos con operadores XOR, la disyunción lógica exclusiva (max-XORSAT). Se considera un avance hacia la demostración de la ventaja cuántica útil en problemas de optimización combinatoria. El artículo es Stephen P. Jordan, Noah Shutty, …, Ryan Babbush, «Optimization by decoded quantum interferometry,» Nature 646: 831-836 (22 Oct 2025), doi: https://doi.org/10.1038/s41586-025-09527-5, arXiv:2408.08292 [quant-ph] (15 Aug 2024).

Y pasamos a Señales de los oyentes.
Gastón nos comenta un tema poco conocido, el cálculo ya fue realizado por Dirac, que estudió la función de onda cuántica del universo para los modelos cosmológicos de tipo Friedmann–Lemaître–Robertson–Walker, es decir, universos en expansión homogéneos e isótropos. La clave es que la función de onda del universo es periódica, luego tiene autovalores discretos que describen estados energéticos discretos (algo análogo a la ecuación de Schrödinger para un átomo en una cavidad, que sería cósmica). Según su cálculo la expandirse el universo la distancia entre niveles energéticos de reduce, luego el espectro discreto tiende a un espectro continuo. Gastón se pregunta en voz alta, ¿tiene sentido hacer estos cálculos? Hoy la luz no tiene niveles de energía discretos, luego especula que quizás sea una consecuencia cosmológica.
Nestor Eduardo pregunta: «¿Se ha comparado la composición del agua que entra a la estalactita con la que cae hacia la estalagmita?» Juan Carlos contesta que ya nos lo ha contado en su descripción del artículo; el agua en vuelo pierde CO2, con lo que cambia su pH y su composición al alcanzar la estalagmita.
Cebra pregunta: «¿Habrán considerado en el escurrir del fluido algo como el camino de mínima acción, en este caso, seguir el camino ya trazado por otra anterior?» Juan Carlos dice que seguir el camino de mínima acción está implícito en las ecuaciones usadas; todo en la Naturaleza sigue esta descripción. Contesto ahora que no se tiene en cuenta el camino ya trazado porque se usa un modelo de autosemejanza para describir la forma ideal (que no incluye trazas de caminos ni otros defectos).
Javier García-Peláez pregunta: «[En relación a los] fractales [en cosmología], ¿permitiría además que la entropía codificada en superficies arrugadas fueran maximales independientemente del volumen [del universo] en expansión?» Gastón contesta que es difícil entender la pregunta. La entropía del horizonte cosmológico está asociada a su área, siendo independiente de su volumen (como la de los agujeros negros). Si hubiese algún tipo de arruga (que no la hay en los modelos actuales) habría más área y más entropía. Contesto ahora que si el horizonte fuese fractal (que no lo es en ningún modelo actual) su área efectiva crecería con la escala a la que se midiera, con lo que en rigor sería infinita a todas las escalas y la entropía también sería infinita.
Javier Benavidespregunta: «¿Existen entrelazamientos fuertes y entrelazamientos débiles?» Contesto que el entrelazamiento es un fenómeno continuo y se puede definir un grado de entrelazamiento que va desde cero (estado separable, sin entrelazamiento) hasta un valor máximo (estado maximamente entrelazado). Juan Carlos aclara que es una consecuencia de las superposiciones lineales en mecánica cuántica y por ello hay un grado de entrelazamiento.
Gabriel Osorio pregunta: «Explican que la permeabilidad y permitividad del vacío son herencia de las teorías del eter. ¿Cómo de reemplazaron y cómo se explican ahora?» Gastón comenta que desde Coulomb (fin del siglo XVIII) los fenómenos eléctricos y magnéticos se entienden en términos de fluidos en un medio (que luego sería el éter luminífero). La razón es que en aquella época era difícil aceptar que haya cosas se propagan en el vacío. Aclaro ahora que hoy entendemos estos parámetros como asociados al vacío del campo electromagnético.
Cristina Hernández García pregunta: «Dado que tener una simetría implica una magnitud conservada, ¿cuál es la magnitud [conservada] para reglas [o leyes] físicas en diferentes tamaños [o escalas]? ¿Virial? ¿Podría variar en algún régimen?» Gastón contesta que si una ley física es invariante de escala (como las teorías conformes de campos cuánticos), existe siempre una carga conservada, que está relacionada con la traza del tensor de energía y momento lineal. No entra en detalles, pero afirma que si la traza es cero, la teoría es invariante de escala.
Ahora me permito aclarar que la invariancia de escala significa que la física no cambia si las distancias se reescalan, . El teorema de Noether implica que hay una carga y una corriente conservadas. La corriente de dilatación es
, donde
es el tensor energía-momento. La ecuación para la conservación de esta corriente es
, es decir, la traza del tensor de energí-momento debe ser nula. Si su traza es nula,
, la teoría será invariante de escala. La corriente de dilatación implica que existe una carga de dilatación conservada.
Thomas Emilio Villa pregunta: «¿Qué diferencias hay entre la no localidad y el teorema del signalling?» Contesto que en esencia son lo mismo. En experimentos tipo Bell se observan correlaciones entre los resultados de medidas cuánticas entre dos sistemas alejados lo suficiente para que no haya tiempo a que una señal lumínica transmita información de los resultados entre ambos sistemas (de tal forma que se puedan comparar y chequear la existencia de las correlaciones). El teorema de no señalización implica que estas correlaciones no se pueden usar para transmitir información. En esencia, la no localidad y el teorema de no señalización son el mismo concepto físico.
Javier García-Peláez pregunta: «¿El gravitón de espín 2 [se puede interpretar] como dos fotones de espín 1? ¿Tiene [esto] un mecanismo cuántico?» Gastón comenta que un gravitón (virtual) puede interaccionar (vértice) con dos dos fotones (virtuales), aunque no a nivel on-shell (con partículas no virtuales), pues no se conserva el cuadrimomento, solo a nivel off-shell (entre partículas virtuales). Un campo masivo de espín 2 es un tensor rango dos, que no se puede describir como producto de dos campos masivos de espín 1 que son vectores. Sugiero una interprestación alternativa a la pregunta, en relación a las teorías de doble copia. Gastón comenta que el formalismo de la doble copia se aplica a las amplitudes de scaterring de gravitones, que resulta ser el cuadrado de las amplitudes de scattering de fotones (en rigor bosones gauge de teorías de Yang–Mills). Recuerdo que esto solo es válido en teorías con supersimetría y Gastón enfatiza que con muchas supersimetrías (las máximas posibles).
¡Que disfrutes del podcast!


Pues lo hiciste genial, Maestro! Se te da bien la conduccion y hay que agradecer que se han podido abordar practicamente todos los temas presentados otra vez! 🙂
Sobre la pregunta de los estados continuos en volúmenes finitos/infinitos…está bien lo de pensar sobre la luz, pero ¿qué pasa, por ejemplo, con la gravedad? El punto es que sabemos que no hay un lugar donde el potencial gravitacional newtoniano de un sistema llegue a cero exacto: es algo asintótico, supongo, o que se trata con las masas ADM vistas desde el infinito en GR. ¿Esto hace que sea inútil aplicar una ecuación como la de Schrödinger (o la de Wheeler–DeWitt) a todo el universo? ¿Que no produzca autovalores físicamente detectables? Es una posibilidad. No tengo ninguna propuesta, claramente, pero es algo sobre lo que estaba meditando 🙂 Muchas gracias por preguntarle a Gastón! 🙂
…en el caso, claramente, de un universo súper grande en muerte térmica terminal, digamos. O que pierda de significado la noción misma de “distancia” :p
Todos los episodios son buenos pero algunos destacan, como este último, geniales.
«la contribución clásica puede ser significativa, de modo que la mera observación de entrelazamiento en futuros experimentos no bastaría para probar la cuantización de la gravedad»
¿Pero eso es un problemón no?, ¿dirías Francis que es posible tener entrelazamiento cuántico máximo capaz de violar CHSH producido por gravedad clásica? (¿la parte de gravedad clásica que no respeta las condiciones de energía tal vez?)
Supongo que quién crea que RG y QM son completamente reconciliables debe responder sí, puede lograrse entrelazamiento cuántico máximo via gravedad clásica. Si no podemos lograr entrelazamiento cuántico máximo mediante gravedad clásica…entonces no tiene sentido afirmar que RG y QM corresponden completamente.
Hola, he visto muchas cosas hermosas
dentro de la cueva pero no tan hermosas
como las que hay fuera.
Cada vez admiro más a Platón,
cuidado con las cadenas.
Un saludo y gracias.
Respecto de esas galaxias que se formaron 2 millones de años después del Big Bang o su gran campo inflatón ultraveloz y ya están complejas, abigarradas y parecen de cientos de millones de años, no será que estando tan lejos el espacio allí se expande más rápido que la luz respecto de nosotros y esas galaxias son más recientes en el tiempo? Pero se alejaron y parecen más lejanas en el tiempo
Wacho, a los 2 millones de años, en plena era oscura, no existían estrellas, ni tampoco galaxias. JWST observa hsta z = 14, pero creemos que las primeras galaxias se formaron alrededor de z = 20 (amanecer cósmico), cuando el universo tenía unos 200 millones de años. Por otro lado, el campo inflatón es relevante antes del primer quectosegundo (10⁻³⁰ segundos); el campo inflatón es irrelevante en la era oscura. La pregunta no tiene sentido. La respuesta es «no será» porque no es ni fue.
2 millones de años en el sentido de lo primitivas que parecen ser por la distancia cuando se las observa con el Webb y se las ve ya completas y maduras en formación, el campo inflatón pegado al Big Bang claramente, eso dice lo que escribí
Me suena que dentro del conducto y punta de las estalactitas a veces se observaron microorganismos y un microhábitat peculiar. Entonces, la gota que le llega por el subsuelo es diferente de la que se libera.
Supongo que hay cambios en pH y cambios de presión, y en concentración de calcio, oxígeno, carbono… sales, metales, minerales diversos disueltos… y la liberación de dióxido de carbono.
Y cuando la gota se forma, o cae, hay otros cambios, y al chocar. Y después, en una estalagmita, se pueden formar como poros, o charquitos microscópicos. A veces cae en un gourg, con costra flotando, o hay microvida y adherencias en su orilla.
Sí, Toopikatxu, hay biogeoquímica en las estalactitas y las estalagmitas, biopelículas de microorganismos.
Para no variar, disculpa que me adelante. He escuchado vuestra última conversación en la cafetería de Ganimedes sobre las aportaciones de otros autores a la teoría de la relatividad y la tendencia de Einstein a ningunearlas. El otro día vi una charla de Avshalom Elitzur (https://iai.tv/video/what-einstein-got-wrong-about-time-avshalom-elitzur) donde cuenta algo que agraba el asunto. La famosa condolecia que Einstein escribió a la familia de Besso al enterarse de su muerte («Michele se ha apartado de este extraño mundo un poco por delante de mí. No significa nada. La gente como nosotros, quienes creemos en la física, sabemos que la distinción entre el pasado, el presente y el futuro es solo una ilusión obstinadamente persistente»), no fue, como suele interpretarse, una extravagancia o falta de tacto. Einstein sabía que Besso no estaba de acuerdo con su interpretación del tiempo, la había discutido con él y estaba resentido por ello. Fue a meter gol cuando el árbitro ya había pitado el final del partido.
P.D. No escucho la primera parte del programa. No aguanto a María «ahá» Ribes. No diré más sobre esto.