Podcast CB SyR 342: misil antisatélite, agujero negro discutido, ordenador cuántico de IBM, planeta 9 y gravedad cuántica

Por Francisco R. Villatoro, el 19 noviembre, 2021. Categoría(s): Astrofísica • Ciencia • Física • Noticias • Physics • Podcast Coffee Break: Señal y Ruido • Recomendación • Science ✎ 18

He participado en el episodio 342 del podcast Coffee Break: Señal y Ruido [iVooxiTunes], titulado “Ep342: Misil Antisatélite; Agujero Negro Discutido; Computación Cuántica; Planeta 9; Gravedad Cuántica», 18 nov 2021. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. En el episodio de hoy: Rusia destruye un satélite (min 7:00); El cuestionado descubrimiento de un agujero negro (25:00); Colaboración ProAm (1:05:00); IBM anuncia avances en computación cuántica (1:10:00); Buscando el Planeta 9 en datos de IRAS (1:29:30); Métricas complejas y la cuantización de la gravedad (1:54:00); Señales de los oyentes (2:16:00). Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso. CB:SyR es una colaboración del Museo de la Ciencia y el Cosmos de Tenerife con el Área de Investigación y la UC3 del Instituto de Astrofísica de Canarias».

Ir a descargar el episodio 342.

Como muestra el vídeo, en el Museo de la Ciencia y el Cosmos de Tenerife se encuentra su director, Héctor Socas Navarro @hsocasnavarro (@pcoffeebreak), y por videoconferencia Ángel López-Sánchez @El_Lobo_Rayado, Gastón Giribet @GastonGiribet, y Francis Villatoro @emulenews.

Tras la presentación, en breves, Héctor nos comenta el disparate de Rusia con su prueba de un misil antisatélite (ASAT) que ha destruido su satélite Kosmos 1408 causando una nube de escombros orbitales formada por miles de fragmentos. Kosmos 1408 estaba a unos 490 kilómetros de altitud, por encima de la Estación Espacial Internacional (ISS) y la Estación Espacial China (CSS). La NASA ordenó a la tripulación de la ISS guarecerse en las naves de regreso hasta evaluar la situación. Se trata de una acción claramente irresponsable y que pone en peligro miles de satélites, incluidos los rusos y chinos. ¿Por qué Rusia ha realizado esta prueba? Nadie lo sabe, pero seguro que Rusia pondrá un precio geopolítico a su firma de un tratado que prohíba que vuelva a hacerlo; ya nos enteraremos en un futuro no muy lejano. Nos lo cuenta Daniel Marín, «Rusia destruye el satélite Kosmos 1408 en una prueba ASAT», Eureka, 17 nov 2021.

Nos comenta Ángel que hay indicios de la observación de un agujero negro en Gran Nube de Magallanes (LMC). Se encontraría en el cúmulo estelar NGC 1850, por ello se denomina NGC 1850 BH1; se habría observado una estrella normal con una masa de 4.9 ± 0.4 M⊙ (masas solares) que parece estar siendo acretada por un cuerpo compacto (invisible a los instrumentos) de entre 8.7 y 13.2 M⊙ (con mediana 11.1 M⊙). La observación se ha logrado usando el método de la velocidad radial (se observan variaciones por encima de 300 km/s) gracias al espectrógrafo de campo integral panorámico MUSE (Multi Unit Spectroscopic Explorer) instalado en el VLT (Very Large Telescope) de ESO (European Southern Observatory); este instrumento opera en el rango óptico visible.

También se han realizado observaciones con el instrumento polaco OGLE (Optical Gravitational Lensing Experiment) instalado en el Observatorio de Las Campanas (LCO) en Atacama, Chile. OGLE lleva estudiando la Gran Nube de Magallanes desde 1992 y ha obtenido un resultado en las bandas I y V realmente espectacular. El análisis de las observaciones se ha publicado en S. Saracino, S. Kamann, …, V. Hénault-Brunet, «A black hole detected in the young massive LMC cluster NGC 1850,» Monthly Notices of the Royal Astronomical Society (MNRAS) stab3159 (11 Nov 2021), doi: https://doi.org/10.1093/mnras/stab3159, arXiv:2111.06506 [astro-ph.GA] (11 Nov 2021).

Por supuesto, no todo el mundo está de acuerdo con dicha interpretación. Con un sistema binario con un agujero negro se esperaría radiación de rayos X, que no se observa en este caso; aunque hay mecanismos que explican su ausencia en ciertos casos. Pero el gran problema es la normalidad de la estrella. Ha aparecido un segundo artículo crítico con la idea (ya aceptado en la misma revista). La curva de velocidad radial podría no corresponder a una estrella subgigante de ∼5 M⊙ , sino a una estrella anormal de ∼ 1 M⊙ (menor de ∼ 1.5 M⊙); esta estrella parece más luminosa de lo esperado para una estrella normal con su masa porque su superficie está ocupando todo el lóbulo de Roche debido a estar tan cerca de la otra estrella; esta última la ha desnudado (quitado) sus capas más externas, quedando expuestas sus capas más internas (que están más calientes de ahí su mayor luminosidad). En dicho caso la compañera sería una estrella con una masa entre 2.5 y 5 M⊙. Las estimaciones de su radio y de su periodo apoyan esta hipótesis (obviamente, usando un modelo teórico diferente del usado en el otro artículo).

Una explicación similar ya se ofreció para las binarias LB-1 y HR 6819, que también fueron candidatas a albergar un agujero negro en su momento. Así, muy bien podría ocurrir que NGC 1850 no contenga un agujero negro a pesar de que la edad de este cúmulo sea solo de unos ~100 millones de años, lo que apunta a estrellas jóvenes y muy masivas. El artículo es Kareem El-Badry, Kevin Burdge, «NGC 1850 BH1 is another stripped-star binary masquerading as a black hole,» arXiv:2111.07925 [astro-ph.SR] (15 Nov 2021).

Nos comenta Ángel un nuevo descubrimiento ProAm, una galaxia enana satélite de M33 (galaxia del Triángulo) llamada Pisces VII, gracias al trabajo del astrónomo aficionado italiano Giuseppe Donatiello con los datos públicos del muestreo DESI Legacy Surveys (ha realizado la búsqueda por inspección visual). Un nuevo resultado sobre el problema de las “satélites perdidos”, que según las simulaciones de formación galáctica la galaxia M33 debería contar con entre nueve y veinticinco galaxias satélite, pero hasta la fecha solo se ha hallado uno; la solución podría ser que son galaxias enanas ultradifusas muy difíciles de observar. El artículo es David Martínez-Delgado, …, Giuseppe Donatiello, Emilio J Alfaro, «Pisces VII: discovery of a possible satellite of Messier 33 in the DESI legacy imaging surveys,» Monthly Notices of the Royal Astronomical Society (MNRAS) 509: 16-24 (01 Jan 2022), doi: https://doi.org/10.1093/mnras/stab2797, arXiv:2104.03859 [astro-ph.GA] (08 Apr 2021). Más información en «Se halla una posible galaxia satélite de M33, una galaxia vecina del Grupo Local», IAA-CSIC, 17 nov 2021.

Yo comento el anuncio de IBM del ordenador cuántico Eagle con 127 cúbits, realizado el 17 de noviembre en el IBM Quantum Summit 2021. Muchos medios se han hecho eco, pero tenemos muy poca información: el ordenador cuántico Penguin (20 qubits, 2017) fue el último del IBM Quantum System One; el IBM Quantum System Two propuso una hoja de ruta con los ordenadores Falcon (27 qubits, 2019), Hummingbird (65 qubits, 2020), Eagle (127 qubits, 2021), Osprey (433 qubits, 2022) y Condor (1121 qubits, 2023); el anuncio de Eagle confirma esta hoja de ruta. No hay artículos científicos sobre Eagle que nos ayuden a caracterizar su funcionamiento cuántico y asegurar que cumple con lo que promete. Solo tenemos propaganda en YouTube (tres vídeos presentados por Darío Gil, Blake Johnson y Jay Gambetta). Entre los medios que se han hecho eco de este anuncio recomiendo Robert Scammell, «IBM unveils 127-qubit quantum chip in latest commercial leap,» Verdict, 15 Nov 2021; que ya nos contó la hoja de ruta en Robert Scammell,»IBM quantum computing roadmap aims for 1,121-qubit machine in 2023″, Verdict, 16 Sep 2020.

La única información técnica la he podido recabar ha sido gracias al blog de Scott Aaronson en este enlace de IBM. Por lo que parece hay un único Eagle R1 en Washington y su última ejecución (hace un mes) se resume en la figura de arriba. Los datos numéricos más relevantes son el error medio al ejecutar una puerta binaria CNOT, que es 0.02 (2 %, entre 0.8 % y 3.6 % según el cúbit); el tiempo T1 de decoherencia (transición |1⟩ a α|0⟩+β|1⟩) es de 74 μs (entre 17 y 123 μs según el cúbit) y el tiempo T2 de decoherencia (transición |+⟩ a α|+⟩+β|−⟩, con |±⟩=|0⟩±|1⟩) es de 101 μs (entre 9 y 229 μs según el cúbit); y el tiempo de ejecución de una puerta (en el conjunto posible de CX, ID, RZ, SX y X) es de 0.322 μs (entre 0.089 y 1.4 μs). Estos valores son algo mejores que los de Falcon R5 (hay hasta un Falcon R8) que alcanzaba un volumen cuántico de ~ 128 (el máximo para una máquina cuántica de IBM hasta ahora); estimo que el volumen cuántico de Eagle será superior a 256, quizás 512 (recuerda que el volumen cuántico es 2k, donde k es el número de cúbits de un circuito cuántico aleatorio con conectividad arbitraria, cuando la probabilidad de una ejecución correcta del circuito es superior a 2/3).

Esta figura muestra la topología de las conexiones entre los 127 cúbits y el error al ejecutar una puerta CNOT en una escala de colores (el color más claro indica mayor error). Solo para dar una idea de la complejidad de los algoritmos que se pueden ejecutar en la máquina Eagle R1, podemos recurrir a un cálculo de servilleta. Usando los tiempos promedio de la tabla se estima que se puede ejecutar un algoritmo con 74/0.32 = 231 puertas (el intervalo está entre 191, peor caso, y 1382 puertas, mejor caso); recuerda que se requieren 127 puertas unarias para preparar el estado inicial de los 127 cúbits. No es mucho, pero es más que con los ordenadores cuánticos anteriores de IBM. Por supuesto, hasta que no se publiquen resultados para algoritmos concretos estos números dicen muy poco sobre la utilidad práctica del nuevo ordenador cuántico (IBM ofrecerá su uso mediante un servicio en la nube de pago a las empresas o instituciones interesadas en usarlo).

Se ha buscado el planeta 9 en el catálogo de observaciones del telescopio espacial infrarrojo IRAS (Infrared Astronomical Satellite). Se ha encontrado un candidato a una distancia de 225 ± 15 UA y una masa entre 3 y 5 masas terrestres. Se encontraron varios cientos de potenciales candidatos para planetas con menos de 5 masas terrestres en el rango de distancias entre 200 y 500 UA (unidades astronómicas); pero solo uno de ellos superó un análisis detallado basado en simulaciones de su dinámica orbital. Futuras observaciones tendrán que confirmar si dicho candidato; el telescopio espacial James Webb podría lograrlo. El artículo es Michael Rowan-Robinson, «A search for Planet 9 in the IRAS data,» arXiv:2111.03831 [astro-ph.EP] (06 Nov 2021).

Héctor destaca lo bien escrito que está el artículo (se nota que su autor tiene 79 años y es un gran pope). Y destaca que en el artículo aparece una «nota en pruebas» (note added in proof) sobre un artículo que descarta este nuevo candidato usando simulaciones orbitales: Michael E. Brown, Konstantin Batygin, «A search for Planet Nine using the Zwicky Transient Facility public archive,» arXiv:2110.13117 [astro-ph.EP] (25 Oct 2021).

Nos habla Gastón del último artículo de Edward Witten; nos presenta la idea de que en las integrales de camino usadas en gravedad cuántica también se pueden usar métricas espaciotemporales complejas; las coordenadas serían reales (por tanto, se trataría de variedades reales, no de variedades complejas), pero los coeficientes de la métrica (que permiten calcular distancias entre pares de puntos y ángulos entre ternas de puntos) podrían ser números complejos, en lugar de números reales. Por supuesto, no se pueden usar métricas complejas arbitrarias; hay que exigir que cumplan ciertas restricciones (las llamadas métricas permitidas, o allowable metrics).

Witten presenta varias propuestas para definir las métricas permitidas; en su opinión, la mejor es la más intuitiva y más útil, las métricas que permiten una teoría de campos cuánticos bien definida; el problema de esta propuesta intuitiva es que no está bien formalizada matemáticamente. Obviamente, cientos de físicos jóvenes tratarán de hacerlo y seguro que aparecerán resultados muy interesantes gracias a estas ideas de Witten. Por cierto, el gran genio de la teoría de cuerdas impartió una charla explicando su idea en el IHES (vídeo YouTube adjunto) y además ha escrito un breve artículo con los detalles: Edward Witten, «A Note On Complex Spacetime Metrics,» arXiv:2111.06514 [hep-th] (12 Nov 2021).

[PS 02 dic 2021] Me han preguntado por Twitter por el artículo de Witten de 2007 que cita Gastón: Alexander Maloney, Edward Witten, «Quantum gravity partition functions in three dimensions,» Journal of High Energy Physics (JHEP) 2010: 29 (08 Feb 2010), doi: https://doi.org/10.1007/JHEP02(2010)029, arXiv:0712.0155 [hep-th] (02 Dec 2007). [/PS]

Y pasamos a Señales de los Oyentes. Preguntan en la sala del Museo sobre los restos de las capas exteriores expulsadas por la estrella que rellena el lóbulo de Roche en el sistema binario; contesta Héctor que no tenemos una imagen y no podemos ver ese material, pero que no será como las nebulosas planetarias de las gigantes rojas, sino que serán restos mucho más difusos; la mayoría de la materia de la estrella se transfiere desde dentro del lóbulo de Roche a la otra estrella, como ilustra esta ilustración de la evolución de la estrella Algol en la constelación Perseo, figura 20.22 del libro de Chaisson McMillan, «Astronomy Today,» 8 ed., Pearson (2014).

Salvador mg​ pregunta: «¿Podría ser que algún autor del segundo artículo, fuera a su vez, revisor del primero?» Contesta Héctor que es posible, pero que no hay manera de saberlo (salvo preguntándole en privado). En mi opinión, como les citan en los agradecimientos es posible que el editor decida no recurrir a ellos en base a un posible conflicto de intereses. 

Rebufo77 pregunta: «La cantidad de lava expulsada por volcanes, en particular el de La Palma, ¿puede hacer variar la intensidad de la gravedad localmente, y en caso afirmativo, que sea relevante en algún ámbito?» Según Héctor no, porque el efecto es pequeño; el material que antes estaba bajo la superficie (en la cámara magmática) tras la erupción pasa a estar encima de la superficie (más o menos en una región colocada sobre la vertical de la cámara magmática), luego lo comido por lo servido. Por supuesto, la lava se desplaza sobre la superficie de la isla, luego podría haber un pequeño desplazamiento relativo. No sé si será medible con las observaciones de los satélites gravimétricos. 

Juan Antonio Viñuales Martínez​ pregunta: «He oído bastantes veces que el futuro de la energía nuclear es la fusión. ¿Por qué es tan importante controlar la fusión si ya tenemos la fisión? ¿No nos sirve solo con la fisión?» Contesto que los reactores de fisión actuales usan uranio, un recurso limitado; en el libro de Alfredo García, «La energía nuclear salvará el mundo», Planeta (2020), se estima que los 450 reactores nucleares comerciales del mundo consumen casi 65 mil toneladas de uranio cada año; con la tecnología actual y con las reservas de uranio ya identificadas se puede garantizar dicho consumo durante unos 130 años; pero se pueden explotar muchos otros recursos, lo que permite llegar a unos 245 años. Para ir más allá hay que recurrir a otras fuentes secundarias, cuya estimación es más complicada, pero podría rondar los 3000 años. Por supuesto, en un futuro se pueden usar otras tecnologías, como los reactores de torio, e incluso extraer uranio del agua del mar (donde hay uranio disuelto para unos cien mil años de fisión), aunque aún no disponemos de una tecnología efectiva para lograrlo. La gran ventaja de la fusión es que minimiza los problemas de la fisión, sin residuos de alta radiactividad, sin riesgo de accidentes y con un combustible casi inagotable, al menos mientras haya agua en los océanos de la Tierra o en otros océanos en el Sistema Solar.

Cristina Hernandez García​ pregunta: «¿La materia oscura tendría su antimatería? ¿Se habría ya aniquilado toda? ¿Podría haber más desequilibrio entre materia y antimateria oscura que entre matería y antimateria bariónica?» Contesta Gastón que hay muchos modelos para la materia oscura, pero en casi todos es una partícula neutra idéntica a su antipartícula (como le ocurre al fotón), así que la materia oscura y la antimateria oscura serían la misma cosa, aunque podrían aniquilarse produciendo partículas el modelo estándar que podemos observar. Los procesos de aniquilación de la materia oscura primordial dependen mucho del modelo, pero hay diferentes mecanismos que permiten que sobreviva suficiente cantidad como para explicar las observaciones cosmológicas (que haya cinco veces más materia oscura que bariónica).

Y esto es todo. ¡Qué disfrutes del podcast! 



18 Comentarios

  1. Francis que piensas de la computadora cuantica de 256 qubits de QuEra, es potente como la de google de 53 o la de ibm ? es verdad que podran escalarla a cientos de miles de qubits?

    1. Mariana, se trata de un ordenador cuántico analógico de propósito específico (lo que se suele llamar un simulador cuántico), con 256 átomos de tipo Rydberg que actúan como cúbits para simular sistemas de hasta 256 espines acoplados (se publicó en Sepehr Ebadi et al., «Quantum phases of matter on a 256-atom programmable quantum simulator,» Nature 595: 227-232 (07 Jul 2021), doi: https://doi.org/10.1038/s41586-021-03582-4, https://arxiv.org/abs/2012.12281). No se puede comparar con un ordenador cuántico digital de propósito general, como el usado por Google con 53 cúbits o el de IBM con 127 cúbits, pues son cosas muy diferentes.

      El genio español Juan Ignacio Cirac es candidato al Premio Nobel de Física como padre de las tecnologías cuánticas basadas en átomos acoplados. Todos los que trabajan en esta tecnología creen que es escalable y que permitirá alcanzar millones de cúbits. En cuanto a la propuesta concreta de QuEra, lograr 1024 cúbits en 2024 (ya están trabajando en su máquina con 512 cúbits), me parece razonable. QuEra también está trabajando en un ordenador cuántico de propósito general con 64 cúbits (que sería comparable a Hummingbird de 65 cúbits de IBM y Sycamore de 53 cúbits de Google, pero con una tecnología muy diferente); hasta que no se logre y se publique cómo funciona (se espera para 2022) no me atrevo a hablar de su escalabilidad (pero a priori me parece mucho más difícil lograr un ordenador de propósito general con 1024 cúbits usando la tecnología de átomos atrapados de QuEra que usando la de transmones superconductores de IBM y Google). Por supuesto, todos los españoles deseamos que la tecnología de átomos atrapados triunfe, para que Cirac pueda recibir el Nobel, pero quizás estamos cegados por nuestro nacionalismo.

  2. Francis

    Has leido el libro de Carlos de Castro, Íñigo Capellán, Alicia Valero, sobre los limities materiales? Es verdad que para 2050 no tendremos ya mas ciertos elementos como Cobre etc? son reales esos numeros de reservas? donde puedo leer algo serio sobre el tema de la escasez de los elementos?

    1. No lo he leído, Matias, y no soy experto en estas lides. Sobre el concepto del Peak Everything (el cenit de todas las reservas), que nació con los defensores del Peak Oil (el cenit del petróleo), se han escrito cientos de libros (y de blogs) y decenas de miles de piezas en medios de diversa índole. Las grandes instituciones internacionales escriben informes sobre las reservas identificadas todos los años (como los del USGS); el gran problema es la estimación de las reservas no identificadas y de las fuentes secundarias (como el reciclaje). En relación al cobre solo quiero decir que llevo leyendo que se se acabará en unos 30 años (entre 25 y 50 según la fuente) desde hace 30 años. Como ya sabrás «es difícil hacer predicciones, especialmente sobre el futuro», frase apócrifa atribuida a Niels Bohr (cuyo origen es el político danés Karl Kristian Steincke en 1948).

  3. Voy leyendo diferentes libros acerca de las partículas básicas y sus interacciones, ya que la Física es un tema que me gusta, pero por otra parte estoy muy lejos de tener una base matemática para entender la parte de formulación, así que me quedo en lo intuitivo.
    Una de las interacciones, la gravedad, se suelen achacar a una partícula no detectada que es el gravitón. ¿Cómo se evita la contradicción, en caso de que esa fuera la forma de transmitirse la gravedad, de que los gravitones tendrían que escapar del horizonte de sucesos de un agujero negro, y por tanto viajar mas rápido que la luz? Si no fuera así, no nos llegaría la gravedad del agujero negro ya que no podría escapar de si misma.

    Muchas gracias por la labor que hacéis tu y tus compañeros de Señal y Ruido.

    1. Pedro, se suele evitar la dicha contradicción aparente recurriendo a la radiación de Hawking, que está formada por gravitones y fotones. Recuerda, la radiación de Hawking emerge del entorno exterior del horizonte de sucesos.

      Lo cierto, Pedro, es que los gravitones aparecen en la aproximación cuántica lineal de la gravitación; la gran dificultad para entender la gravitación como resultado de una interacción gauge mediada por gravitones son los fenómenos cuánticos no lineales (los agujeros negros son la solución no lineal paradigmática de la relatividad general). Nadie sabe cómo explicar con gravitones los agujeros negros, aunque los gravitones explican a la perfección las ondas gravitacionales cuánticas (si es que existen, pues aún no han sido observadas).

      Lo que sabemos (desde finales de la década de los 1930) es que, si existe el gravitón, estará descrito por una teoría lineal de la gravitación regida por la versión linealizada de las ecuaciones de Einstein. En la aproximación clásica de dichas ecuaciones lineales, como la energía de la gravitación gravita, aparecen de forma natural fenómenos no lineales y con ellos las ecuaciones de Einstein en su versión completa (no lineal). Pero nadie sabe cómo usar la gravitación cuántica lineal que describe el gravitón para obtener unas ecuaciones cuánticas no lineales que en su límite clásico se reduzcan a la gravitación de Einstein. Ni en teoría de cuerdas, ni en gravitación cuántica de lazos, ni en otras especulaciones se sabe cómo hacerlo (por ello, a día de hoy no disponemos de una teoría cuántica de la gravitación, a pesar de que sabemos calcular muchas cosas usando gravitones para lo que pensamos que será la versión linealizadas de dicha futura teoría).

      1. Saludos Francis,

        ¿ el no alcanzar la teoría efectiva de la gravitación cuántica (aceptando que exista una sola teoría «correcta») es un problema de física, de matemáticas, o de las dos ?

        ¿ Cual de las dos ciencias contiene los mayores inconvenientes para lograr formular dicha teoría ?

        Gracias

        1. Javi, necesitamos experimentos y observaciones que nos guíen. Por un lado, puede que la teoría cuántica de la gravitación ya sea conocida, pero no lo sabemos porque con ninguna de las propuestas actuales sabemos calcular lo que nos gustaría calcular (se suele decir que nos faltan las matemáticas); y por otro lado, sin experimentos que sesguen entre las teorías ya propuestas no podemos descartar ninguna de ellas (se suele decir que nos faltan los experimentos y las observaciones necesarias).

          Todo va unido. El pensamiento puro (matemáticas) nunca ha permitido avanzar en física, a pesar de que muchos avances «se venden» como si hubieran sido resultado del pensamiento puro; cuando trazas tu historia descubres los experimentos y las observaciones que fueren el germen de dichas ideas.

      2. Muchas gracias por responder tan pronto.

        Ciertamente no entiendo gran parte de lo que me comentas, pero te agradezco por que tu respuesta enfoca próximas lecturas que me conviene hacer.

        Un abrazo.

      3. Algo se me escapa, supuestamente la radiación de Hawking es «real», mientras que en una interacción con partículas mensajeras se conciben éstas como partículas virtuales (independientemente de que a un nivel más detallado se consideren a éstas como oscilaciones de su campo cuántico correspondiente).

        1. Curioseando, en la interacción entre dos partículas mediada por un gravitón, dicho gravitón debe ser un gravitón virtual. Un agujero negro no es una partícula, luego no se puede describir la interacción de un agujero negro y una partícula de prueba usando una partícula virtual. Por otro lado, la radiación de Hawking explica por qué los agujeros negros radian gravitones, que era la pregunta que se me hizo.

          No sabemos describir el espaciotiempo como resultado de la interacción de gravitones; no sabemos describir la curvatura del espaciotiempo como resultado de la interacción de gravitones; no sabemos describir un agujero negro como resultado de la interacción de gravitones. Por tanto, no sabemos describir la interacción de un agujero negro (BH) con una partícula de prueba (TP) usando gravitones. Si el agujero negro estuviera hecho de algún tipo de partícula, entonces la interacción entre partículas (BH y TP) estaría mediada por gravitones virtuales.

    1. Maria Paz, muchos físicos opinan que el universo es espacialmente infinito porque es plano (curvatura exactamente cero); es solo una opinión (si es cero, nunca se podrá saber si es exactamente cero o si tiene un valor muy pequeño por debajo del observado). Por otro lado, si el espaciotiempo tiene una topología trivial, que sea plano implica que es infinito; pero nadie conoce la topología del universo y es posible que no sea trivial, siendo plano y espacialmente finito.

  4. Gastón enmarca perfectamente la indagación de la gravedad cuántica.
    Trataré de avanzar en el ‘Road to reality’ por ‘complejo’ que resulte.
    Gracias por vuestro trabajo.

  5. Soy asiduo lector de ti blog aunque nunca comento. Hoy recién despierto y me salta está salvaje noticia (dejo link al final). Que por medio de la física dan solución a la conjetura de Rienmman (los números primos son en realidad un movimiento Browniano). ¿Sabes algo al respecto?
    Solo tengo el link de la noticia, no pude dar con el papel. Saludos.

    https://www.europapress.es/ciencia/laboratorio/noticia-famoso-problema-matematico-150-anos-tiene-solucion-fisica-20211124110214.html?fbclid=IwAR2_gUMjzF2HOV25T19NbEKAnZ7wjjuDRhSdKtaBWe2oIWN7_Cb0vPTuBws

    1. ReneGV, falsa alarma, no es una demostración, ni siquiera un camino firme hacia la demostración. Lo que se ha hecho es lo mismo que probar que el primer billón de ceros no triviales de la función zeta está en la línea crítica; esto no es una demostración, ni tampoco nos acerca a una demostración; ni siquiera permite afirmar que sea muy improbable que la hipótesis de Riemann sea falsa.

      El nuevo artículo ha hecho exactamente lo mismo, pero con una propiedad de la función de Mertens, que si fuera cierta, implicaría la hipótesis de Riemann; pero solo se ha comprobado que dicha propiedad parece ser cierta en una búsqueda por ordenador; maravilloso, pero no aporta nada hacia la futura demostración. Lo único que ha llamado la atención a los medios (a partir de la nota de prensa sensacionalista de la institución de los autores) es que estos físicos afirman que sus resultados «hacen muy improbable que la hipótesis de Riemann sea falsa»; lo que es falso para un matemático, aunque podría ser un engañabobos para los físicos y los periodistas de medios como Europa Press (y todos los que les copien).

      El artículo es Giuseppe Mussardo, André LeClair, «Randomness of Möbius coefficients and Brownian motion: growth of the Mertens function and the Riemann hypothesis,» Journal of Statistical Mechanics: Theory and Experiment 2021: 113106 (16 Nov 2021), doi: https://doi.org/10.1088/1742-5468/ac22fb, arXiv:2101.10336 [math.NT] (25 Jan 2021). Por cierto, en enero cuando apareció en arXiv nadie pensó que hubiera medios como Europa Press que vieran una demostración en este artículo; «la vida te da sorpresas, sorpresas te da la vida».

  6. Hola un saludo muy especial, la verdad estos temas me interesan un montón, mi corazón se acelera al leer todo esto, pero quisiera un consejo recién estoy empezando y pues la verdad no entiendo mucho, bajo tu criterio ¿Qué recomendaciones tendrías para alguien que apenas ha decidido iniciar por este camino?.

Deja un comentario