Podcast CB SyR 475: James D. Bjorken, ADN zurdo, formación estelar en galaxias y LUCA

Por Francisco R. Villatoro, el 30 agosto, 2024. Categoría(s): Astrofísica • Biología • Ciencia • Noticias • Physics • Podcast Coffee Break: Señal y Ruido • Recomendación • Science ✎ 8

Te recomiendo disfrutar del episodio 475 del podcast Coffee Break: Señal y Ruido [iVoox A, iVoox BApplePodcast AApplePodcast B], titulado “Ep475: Experimento Cuántico; LUCA; ADN-Z; Bjorken; Primeras Galaxias», 29 ago 2024. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: Aclaración sobre el experimento de doble rendija con delayed choice y quantum eraser (8:46) [iVoox]. El acertijo cosmológico sobre el cielo del Reggae (32:50) [iVoox]. Obituario: James D. Bjorken (37:50) [iVoox]. Cara B: El ADN zurdo (Z-ADN). Transición entre el normal (B) y el Z-ADN (00:01) [iVoox]. Evolución cosmológica del ritmo de formación estelar (38:03) [iVoox]. La naturaleza de LUCA (1:03:53) [iVoox]. Señales de los oyentes (1:44:03) [iVoox]. Imagen de portada realizada por Héctor Socas-Navarro. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».

¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 270! Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!

Descargar el episodio 475 cara A en iVoox.

Descargar el episodio 475 cara B en iVoox.

Como muestra el vídeo participamos por videoconferencia Héctor Socas Navarro @HSocasNavarro (@pCoffeeBreak), Juan Carlos Gil Montoro @Ooxine/@ApuntesCiencia, José Edelstein @JoseEdelstein, y Francis Villatoro @eMuleNews. Por cierto, agradezco a Manu Pombrol @ManuPombrol el diseño de mi fondo para Zoom; muchas gracias, Manu.

Tras la presentación, Héctor dice que hay oyentes a los que no les quedó claro el experimento cuántico de doble rendija con borrado y elección retardada. Por lo que parece algunos oyentes no entendieron la idea básica, que el patrón en la pantalla formada por los fotones principales (franjas de interferencia sobre un fondo de manchas) no se puede alterar con las medidas retardadas (a posteriori) que se realicen sobre el fotón compañero. El patrón es inalterable (porque no existe ningún efecto que desde el futuro pueda alterar el pasado). Solo podemos identificar (etiquetar) en el futuro los fotones que en el pasado impactaron en la pantalla (de hecho, solo unos pocos).

Jose nos iba a comentar la solución al acertijo cosmológico sobre el cielo del Reggae (que propuso en el Rototom Sunsplash). Pero quiere generar tensión dramática, porque quiere que algunos oyentes le informen de la solución antes de desvelarla en el podcast. Así que hasta la próxima semana no nos ofrecerá la solución, como pronto.

Jose vuelve esta semana con otro obituario, el gran físico James Daniel «BJ» Bjorken falleció el pasado 6 de agosto de 2024 a los 90 años; recibió muchos galardones como el Premio Wolf en 2015 y la Medalla de Dirac en 2004. Siendo miembro del grupo de física teórica del SLAC (SLAC National Accelerator Laboratory), introdujo en 1968 el escalado de Bjorken (o escalado del cono de luz). SLAC era un acelerador lineal en el que electrones de alta energía (50 GeV) impactaban contra un blanco cuyos núcleos tienen protones y neutrones (con masa de ∼1 GeV); cuando la energía es muy alta, el electrón es muy pequeño, mucho más pequeño que un protón, con lo que puede penetrar en su interior.

Bjorken junto a Feynman interpretó en 1969 los experimentos de dispersión inelástica profunda del SLAC sobre protones en términos de «subpartículas» bautizadas como partones, que más tarde fueron identificados como los quarks de Murray Gell-Mann (Nobel de Física en 1969). Estos resultados fueron clave para el nacimiento del modelo estándar en 1973. Ya había introducido en 1966 la regla de la suma de Bjorken, usada más tarde en cromodinámica cuántica (QCD) para entender las funciones de estructura (PDF) de protones y neutrones, cómo la energía y el momento lineal en su interior se reparte entre gluones y quarks en diferentes términos (LCMF, 03 ene 2017; LCMF, 26 ago 2022).

Bjorken y Sidney D. Drell son autores de dos libros pioneros en teoría cuántica de campos, «Relativistic Quantum Mechanics» (1964) y «Relativistic Quantum Fields» (1965), usados como libros de cabecera durante muchos años. El obituario en Simmerdeep Kaur, «Stanford and SLAC theoretical physicist James D. ‘BJ’ Bjorken Dies at 90,» RWC Pulse, 16 Aug 2024.

José Carlos también nos cuenta un artículo de Nucleic Acid Research sobre el ADN zurdo (Z-ADN). El ADN está formado por nucleótidos, un azúcar conectado a un grupo fosfato a una base nitrogenada (sin el grupo fosfato se llama nucleósido). El ADN está formado por cuatro nucleótidos (o bases) adenina, citosina, guanina y timina (cuyos nucleósidos son adenosina, citidina, guanosina y timidina), que en la doble hélice se emparejan A=T y G≡C (con la base en el interior, como si fuesen escalones). Wilkins estudió el ADN-A (que cristaliza mejor en ambiente seco) y Franklin el ADN-B (que cristaliza en ambiente húmeda, es decir, se da en las células vivas), así los trabajos de Franklin fueron los que desvelaron la clave de la estructura. Hay muchos tipos de ADN, ADN-C, … hasta el ADN-Z; en el ADN-Z las bases se enrollan al revés (como girando con el pulgar de la mano izquierda cerrada), es levógira (zurda o siniestra), mientras que los ADN-A y AND-B son dextrógiros (diestros). En los seres vivos solo se han observado el ADN-A (en bacterias termófilas que viven a gran temperatura y baja humedad), el ADN-B (en todas las células) y el ADN-Z.

El ADN-Z está vinculado a ciertas patologías, como los cánceres y algunos trastornos autoinmunitarios. En ellas se observa una expresión aberrante de los oncogenes que conduce a ADN-Z, que mejora la supervivencia y la proliferación de las células tumorales. Por ello hay terapias basadas en bloquear o alterar la formación de ADN-Z. Para desarrollar dichas terapias se requiere un conocimiento detallado de la transformación de ADN-B en ADN-Z. El nuevo artículo estudia un sencillo mecanismo que la permite, modificar dos nucleósidos (citidina y guanosina) sustituyendo un átomo de hidrógeno (P) por un átomo de flúor (F). Usando simulaciones por ordenador muy detalladas (que Juan Carlos explica de una forma fascinante) se logra explicar dicha transformación en este caso. Por supuesto, quizás la conversión en las células tumorales siga otro mecanismo. En cualquier, conocer en detalle un mecanismo posible permitirá usarlo como diana terapéutica.

El artículo es Roberto El-Khoury, Cristina Cabrero, …, Carlos González, «Formation of left-handed helices by C2′-fluorinated nucleic acids under physiological salt conditions,» Nucleic Acids Research 52: 7414-7428 (22 Jul 2024), doi: https://doi.org/10.1093/nar/gkae508.

Jose nos comenta cómo afecta la evolución cosmológica al ritmo de formación estelar. El proyecto CEERS (Cosmic Evolution Early Release Science Survey) usa el instrumento NIRCam del telescopio JWST para estudiar galaxias con desplazamientos al rojo z entre 4 y 8 (cuando el universo tenía entre 500 y 1500 millones de años); también han usado MIRI en 18 de ellas y NIRSpec en 28 de ellas). En resumen, han seleccionan las galaxias del catálogo que son más masivas (que podrían estar en conflicto con las predicciones  de la formación galáctica dentro del modelo ΛCDM) y eliminan las más brillantes (asumiendo que tiene un núcleo galáctico activo (AGN) que es responsable del brillo, en lugar de la masa estelar); el resultado es que las galaxias que quedan son compatibles con el modelo cosmológico ΛCDM, la tensión desaparece, salvo un pequeño detalle.

El detalle está relacionado con el factor de eficiencia (ε) en la conversión de bariones (el gas primordial de hidrógeno y helio) en estrellas. Se suele asumir que es constante (en el universo local es ε = 0.14 . No se sabe cuánto valía este factor en el universo joven (4 < z < 8). En este estudio se muestra que una pequeña variación de este factor con z podría explicar todas las observaciones en perfecto acuerdo con el modelo cosmológico ΛCDM. En concreto, para z < 4 sería ε = 0.14, que crecería para z ∼ 5 hasta ε = 2.0, e incluso más para z > 6 hasta ε = 0.3.

El otro parámetro relevante es el cociente M/L, el cociente entre la masa y la luminosidad de la galaxia, que refleja cuánta masa de la galaxia son estrellas. En relación a este parámetro es relevante destacar que la existencia de un núcleo galáctico activo (AGN) puede falsear la luminosidad y con ella dicho parámetro. Los modelos teóricos, ajustados a datos actuales, describen bien estas galaxias para 1 < z < 4. Sin embargo, para 4 < z < 8, la abundancia de galaxias masivas es mayor de lo que predicen los modelos teóricos.

El resultado principal es que la sobreabundancia de galaxias masivas podría ser debida a una mala interpretación de las observaciones, ya que cambios razonables en los valores de los dos parámetros (ε y M/L), que modificarían la física de la formación estelar, permiten explicarla. No hay que recurrir, en ningún caso, y como es obvio, a modificar la cosmología moderna. El artículo es Katherine Chworowsky, Steven L. Finkelstein, …, Jorge A. Zavala, «Evidence for a Shallow Evolution in the Volume Densities of Massive Galaxies at z=4 to 8 from CEERS,» The Astronomical Journal 168: 113 (26 Aug 2024), doi: https://doi.org/10.3847/1538-3881/ad57c1, arXiv:2311.14804 [astro-ph.GA] (24 Nov 2023).

Nos comenta Juan Carlos un interesante artículo en Nature Ecology & Evolution sobre lo que sabemos de LUCA (último ancestro común universal). Se estima que existió hace unos 4200 millones de años, o entre 4.09 y 4.33 Ga al 95 % CL, cuando antes se pensaba que eran unos 3800 millones de años, en cualquier caso mucho antes de la Gran Oxigenación (que ocurrió hace 2400 millones de años), cuando el ecosistema terrestre era anóxico. Se combinan técnicas de reloj molecular, filogenética y biogeoquímica para estimar que su genoma tenía unas 2.75 Mb (megabases), o entre 2.49 y 2.99 Mb al 95 % CL, codificando unas 2600 proteínas (similar a las procariotas actuales). Se propone que LUCA era un organismo complejo, anaeróbico, termófilo, acetógeno (producía ácido acético) y que poseía un sistema inmunitario temprano (con proteínas Cas) , para combatir a los virus. LUCA vivía en fuentes hidrotermales (porque era termófilo) un entorno ecológico bien establecido, interactuando con otras comunidades microbianas (que no fueron ancestros de ningún microorganismo actual).

Sin lugar a dudas es un artículo revolucionario y extraordinario. Pero destaco que afirmaciones extraordinarias requieren evidencia extraordinaria. El artículo es Edmund R. R. Moody, Sandra Álvarez-Carretero, …, Philip C. J. Donoghue, «The nature of the last universal common ancestor and its impact on the early Earth system,» Nature Ecology & Evolution (12 Jul 2024), doi: https://doi.org/10.1038/s41559-024-02461-1. Recomiendo mi pieza «Datación, genoma, proteoma y fisiología de LUCA», LCMF, 30 ago 2024

Y pasamos a Señales de los Oyentes. Néstor (NeMa) pregunta: ¿Cómo se explica que toda la vida solamente provenga de LUCA, siendo esto altamente improbable, o es que el problema de la vida tiene una y solo una solución? ¿Se ha intentado sintetizar a LUCA?» Contesto que el problema del origen de la vida no tiene nada que con LUCA, que surge en un entorno en el que ya hay vida compleja. No contesto a la segunda pregunta, pero la respuesta es obvia: nadie ha intentado sintetizar a LUCA porque es algo desconocido. Solo se han intentado sintetizar bacterias con genoma mínimo, que podrían o no estar relacionadas con LUCA.

Pregunta Thomas Vila: «Si podrían las asimetrías CP de las fuerzas fundamentales, electrodébil, nuclear fuerte, etcétera, a escala cuántica, explicar a nivel atómico y molecular las asimetrías del ADN; C, CP o algo así». Contesto que cuando se descubrió que la interacción débil incumple la simetría de paridad (en 1957) se propuso que podría ser la fuente de toda la quiralidad en los organismos vivos. Desde entonces ha habido muchas investigaciones sobre este tema. Pero no está resuelto a día de hoy. La interacción débil modifica de forma muy ligera la distribución de moléculas. Pero desde un punto de visto biológico es más fácil pensar en que la quiralidad es contingente (como comenta Juan Carlos). Héctor comenta que ya hemos hablado de esta hipótesis en el podcast. Los rayos ultravioleta o los rayos cósmicos podrían haber generado dicha asimetría en la Tierra. Se podría apoyar esta idea si en el espacio se observa esta quiralidad debida a la interacción débil. Juan Carlos comenta que la vida en otros lugares podría surgir con quiralidad distinta. Y menciona un ejemplo terrestre, ciertos caracoles zurdos, cuya concha se enrolla en sentido contrario, y solo se pueden aparear con caracoles de la misma quiralidad.

Otra pregunta es «si el hecho de que LUCA fuera un bichillo tan evolucionado puede ir a favor de la teoría de la panspermia cósmica». Héctor dice que cree que sería al revés. Juan Carlos comenta que dado que LUCA surgió en solo 400 millones de años podría haber sido plantado por panspermia o por inteligencias superiores. Comento que si alienígenas plantaron LUCA también plantarían un ecosistema que lo apoyara. Héctor destaca que panspermia no implica vida inteligente. Juan Carlos comenta que la panspermia cambia de sitio el problema del origen de la vida. Héctor destaca el tema de la existencia de virus que coevolucionaron con LUCA, ya que tiene un sistema inmunitario contra ellos. Comento que quizás el sistema CRISPR es una pareidolia en el artículo. Juan Carlos dice que los indicios en el artículo son muy convincentes.

Pregunta P: ¿Podemos distinguir dos partículas entrelazadas de dos partículas que se comportan igual durante un cierto tiempo sin estar entrelazadas?» Contesto que no, que las partículas (por definición) son indistinguibles entre sí. Solo entrelazan estados de las partículas (decir que se entrelazan partículas es un abuso del lenguaje). Héctor recalca que el entrelazamiento se refiere a un experimento, porque tiene que ver con estados cuánticos y los estados cuánticos hacen referencia a un experimento. Entonces para un determinado experimento, entrelazamiento significa que esas dos partículas están descritas por un mismo estado (se refiere a una función de onda común). El entrelazamiento no es una propiedad de las partículas, sino [una correlación entre] los resultados de las medidas en un experimento. Comento que en la futura internet cuántica se usará el entrelazamiento entre cúbits en sistemas físicos muy diferentes (fotones, átomos, flujo magnético cuantizado en superconductores, etc.). Héctor concluye recalcando que solo se entrelazan estados, nada más. Concluyo con que la respuesta a la pregunta es que no, las partículas son indistinguibles.

Pregunta Néstor «si se ha realizado el experimento de la doble rendija con partículas eléctricamente cargadas en lugar de fotones. ¿Así se podría medir sin interactuar al atravesar un bobinado generaría en un pulso?» Comento que sí se ha realizado con electrones y con iones, que son partículas cargadas. Se ha realizado con fullerenos y con moléculas grandes, y se está trabajando en hacerlo con virus. La longitud de onda de de Broglie de los virus es tan pequeña que nadie puede fabricar una rendija tan pequeña como para que se pueda superponer virus por el paso por dicha rendija; lo que se usa es una «simulación» de una doble rendija, un sistema con láseres que actúa de forma equivalente a una doble rendija. Con virus esto se logrará en los próximos años.

Héctor recupera la pregunta y destaca que no se puede observar una partícula cargada sin interaccionar con ella. El bobinado genera un pulso porque interacciona de forma electromagnética con la partícula. Yo recalco lo mismo, siempre hay interacción. Juan Carlos recuerda que Feynman diría que nada toca a nada, todo son interacciones electromagnéticas. Finalizo con que no se puede hacer un experimento que me diga por qué rendija pasó un electrón que no implique interaccionar con el electrón y destruir el estado de superposición en posición tras haber pasado por las dos rendijas. Así de sencillo, es imposible.

Héctor recuerda una pregunta de Cebra: «He oído que no es lo mismo la probabilidad cuántica que las diferencias estadísticas». Héctor dice que no sabe a qué se refiere. Yo recurro a la axiomática de Kolmogorov para una probabilidad. Que hoy llamamos clásica, porque también hay una axiomática para la probabilidad cuántica. La diferencia es que esta última maneja amplitudes de probabilidad, que son números complejos cuyo valor absoluto al cuadrado se comporta como una probabilidad. Juan Carlos comenta que en los ordenadores cuánticos se opera sobre amplitudes de probabilidad. Y comenta que Cebra hablaba de mecánica estadística clásica y mecánica estadística cuántica.

Yo comento que en mecánica estadística se puede usar probabilidad (clásica) o probabilidad cuántica. En los sistemas estadísticos hay muchas partículas y, en general, la acción, el producto de los cambios en energía por las duraciones de dichos cambios, es grande comparada con la constante de Planck, que tiene unidades de acción. Y, por tanto, se comporta como un sistema en el que se pueden usar probabilidades clásicas aplicadas a propiedades que pueden tener valores discretos porque son cuánticas. Pero nada prohíbe usar probabilidades cuánticas.

Y esto es todo. ¡Que disfrutes del podcast!



8 Comentarios

  1. Sobre lo que dice Héctor acerca de las interpretaciones retrocausales, yo también estoy estudiando un poco estas interpretaciones y sí, desde luego que las bien establecidas respetan la localidad. Por ejemplo, las que estoy estudiando en este momento utilizan la teoría de la acción directa de Wheeler y Feynman, luego desarrollada por el físico y también investigador de SETI, Paul Davies. En particular, Davies fue quien describió las ondas retardadas, que tienen un propagador D+ (con exponente negativo), y las ondas avanzadas con un propagador D- (con exponente positivo), tal que D+ = -D-. Esta interacción, a la que llamaremos ‘transacción’, no permite ninguna transferencia de señales reales, claro está; es algo que ocurre, por así decirlo, como metáfora, matemáticamente en un espacio dual de Hilbert. La Direct Action Theory, que por supuesto no es una QFT, es un escenario compatible con la relatividad especial que expande ciertas transacciones que no tenían esa posibilidad de ‘relativizarse’ desde los años ochenta. Y si tienes, como yo, la necesidad de hacerte un marco conceptual heurístico para entender un concepto tan abstracto, no es una propuesta exenta de interés a nivel heurístico… por si se quiere profundizar el tema: https://philsci-archive.pitt.edu/18564/1/QDAT%20Arxiv.pdf

  2. No sé si habéis sido conscientes, Francis, de que en todos vuestros esfuerzos por ir aclarando el experimento del borrado, mientras tú intentabas ser fiel a los hechos y Hector intentaba cerrarlo con una conclusión global, la tensión os ha llevado a ir concluyendo cada vez con distintos puntos de vista, pero como no podía ser de otra forma, cada uno de ellos no exento de problemática, es decir, en este último intento el punto ha sido «se trata al final simplemente de una mera correlación que te da algo más de información que la correlación clásica». Y es una afirmación correcta excepto que en una correlación se entiende que la propiedad ya está definida antes de interaccionar con los objetos a medir, y en este caso no es así, se definirán aleatoriamente en la medida.

    Todo esto nos lleva a que no tenemos un lenguaje adecuado para sacar una conclusión global más allá de los hechos, porque no nos habíamos encontrado en la naturaleza nada similar hasta ahora. No hay metáfora buena, porque es nuevo, y es absurdo no querer admitirlo con la cantidad de cosas que existen a nuestro alrededor que no se puede descomponer más y admitimos tal cual.

    Hablando de metáforas malas, la de los calcetines no aclara nada y la de la de los suflés (si bien muy completa) invita al lector a abandonar en la tercera variable a tener en cuenta, creo que la más sencilla de entender es la de Bananaworld.

    1. Cuidado, Pedro, no es cierto que una correlación entre observaciones implique que exista una propiedad subyacente asociada a dichas observaciones. Este realismo no se encuentra en la formulación en la física cuántica. No leas entre líneas lo que te gustaría que se dijera. Y en cuanto a las metáforas, todas son erróneas e inadecuadas, por definición de metáfora. Hace años yo las usaba más. Ahora mismo me gusta muy poco usarlas.

      1. Claro, es lo que digo, que no es así en la cuántica, pero en la palabra correlación parece estar implícita esa realidad… tal vez la diferencia pueda estar como dices en hablar de «correlaciones entre OBSERVACIONES» en vez de entre propiedades, tal vez este sea el detalle que pasé por alto.

        1. Interesante programa Francis, pero cuando se habla del «mundo microscopico» y el mundo macroscopico para decir que en lo concerniente al primero se aplica la teoria de la mecanica cuantica y en la segunda la relatividad general, me queda la duda de saber cual es la frontera entre «ambos mundos» y noy capaz de comprender el porque de esa frontera. Por otra parte, muy bien explicado la diferencia entre LUCA y la emergencia de la vida en la tierra, no obstante me asombra la idea de que en «solo» 300 millones de años, de la nada se haya llegado a un ser tan complejo como LUCA. Hay algun estudio que aporte luz a como pudo ser posible llegar hasta LUCA y la emergencia de la vida que tenga posibilidades de ser una teoría valida al respecto (a parte del experimento de Stanley-Miller)? Gracias.

          1. Juan Ramón, las fronteras entre lo microscópico, lo mesoscópico y lo macroscópico no están fijadas, dependen del sistema considerado; de hecho, pequeños cambios en un sistema pueden influir mucho en esos límites. Simplificando al máximo, la diferencia está en la acción (cambio en energía multiplicado por la duración de dicho cambio); en lo microscópico la acción del sistema es comparable a la (acción) constante de Planck, mientras que en lo macroscópico dicha (acción) constante de Planck es despreciable comparada con la acción del sistema; lo difícil es definir el régimen mesoscópico, que está entre ambos casos. La acción de un sistema físico no solo depende de su dinámica (hamiltoniano) sino también de sus condiciones iniciales y de contorno.

  3. Hola, Francis, hay que estar muy seguro para decir
    “no existe ningún efecto que desde el futuro pueda alterar el pasado”,
    creo que hay caminos normales, dificiles y inescrutables.
    De mis tres grandes legos, a uno le falto piezas y al otro tiempo,
    Ettore es mi preferido tenía todo y lo devolvió.
    Por eso mis dudas entre los neutrinos y los fotones oscuros.

    Un saludo y gracias.

Deja un comentario