Podcast CB SyR 463: esferas de Dyson, migraciones planetarias, criptografía postcuántica y cúbits tipo gato

Por Francisco R. Villatoro, el 10 mayo, 2024. Categoría(s): Ciencia ✎ 15

Te recomiendo disfrutar del episodio 463 del podcast Coffee Break: Señal y Ruido [iVoox AiVoox BiTunes A y iTunes B], titulado “Ep463: Migraciones Planetarias; Criptografía Postcuántica; Esferas de Dyson; Cubits Gatunos», 09 may 2024. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. En el episodio de hoy: Cara A: Buscando esferas de Dyson en datos de GAIA (papers I y II) (5:00). Cara B: Un error en el artículo IACR de Chen salva la criptografía postcuántica (02:15). Orígenes del sistema solar y migraciones planetarias: Modelo de Niza y Gran Tack (34:30). Cúbits tipo gato (cat-qubits) coherentes durante diez segundos (1:10:00). Señales de los oyentes (1:38:20). Imagen de portada realizada por Héctor Socas. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».

¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 230! Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!

Descargar el episodio 463 cara A en iVoox.

Descargar el episodio 463 cara B en iVoox.

Como muestra el vídeo participamos por videoconferencia Héctor Socas Navarro @HSocasNavarro (@pCoffeeBreak), José Edelstein @JoseEdelstein, y Francis Villatoro @emulenews. Por cierto, agradezco a Manu Pombrol @Manupombrol el nuevo diseño de mi fondo para Zoom. Muchas gracias, Manu.

Tras la presentación de Héctor, recordamos que la semana próxima se celebra el Pint of Science (se celebra en 67 ciudades de España, busca la más cercana a la tuya). Héctor nos habla de los tres artículos de la tesis de Matías Suazo, en la que estuvo de oponente, sobre la búsqueda de esferas de Dyson en los datos de GAIA. Nos aclara Héctor que Dyson las propuso en el contexto del estado asintótico de una civilización tecnológica (que crece muy rápido y consume todos sus recursos disponibles). Se crearía un hábitat tipo bioesfera con un radio del orden de una unidad astronómica. El objetivo de la tesis es observar esferas de Dyson incompletas (en proceso de construcción), que producen un incremento en la emisión infrarroja de su estrella.

El primer artículo (publicado en MNRAS en 2022) estima cotas superiores a la abundancia de esferas de Dyson en los datos de Gaia DR2 y del telescopio infrarrojo WISE. Estas hipotéticas megaestructuras rodean una estrella con objeto de extraer toda su energía. Se estima la fracción de estrellas con magnitud G ≤ 21 que podrían tener esferas de Dyson que absorban entre el 1 % y el  90 % de su luminosidad bolométrica y que emitan un calor residual entre 100 K y 1000 K. Se ha usado una muestra de unas 270 mil estrellas a una distancia menor de 100 pc. Se estima que la fracción de estrellas con esferas de Dyson es menor de ≈ 2 × 10−5 para esferas de Dyson con ∼300 K completadas al menos en un 90 %. Para las ∼2.9 × 108 estrellas a una distancia menor de 5 kpc en la muestra de la Vía Láctea estudiada se estima que la fracción que contiene un esfera de Dyson con ∼300 K completa al 90 % es ≤ 8 × 10−4. El artículo es Matías Suazo, …, Jason T. Wright, …, Macy Huston, «Project Hephaistos I. Upper limits on partial Dyson spheres in the Milky Way,» Monthly Notices of the Royal Astronomical Society 512: 2988-3000 (02 Feb 2022), doi: https://doi.org/10.1093/mnras/stac280, arXiv:2201.11123 [astro-ph.GA] (26 Jan 2022).

El segundo artículo (ya aceptado en MNRAS) se buscan esferas de Dyson en las observaciones ópticas de Gaia DR3, las infrarrojas cercanas de 2MASS y las de infrarrojo medio de WISE. Para ello se propone un nuevo algoritmo de identificación de candidatos que usa redes de neuronas convolucionales. Se han identificado 7 candidatos (puntos amarillos en la imagen) que requieren un estudio más detallado. Todos estos objetos se encuentran en estrellas de tipo M (enanas rojas) cuya emisión infrarroja no está bien descrita por los modelos astrofísicos actuales. Por supuesto, el interés en su estudio va más allá de la búsqueda de esferas de Dyson.

El tercer artículo estudia en detalle los siete candidatos mediante espectroscopia. Se confirma su emisión anómala, pero se plantea que podría tener como origen un disco de polvo circunestelar o una fuente infrarroja brillante de fondo que aún no haya sido detectada en longitudes de onda más cortas. Futuras observaciones con el JWST tendrán que dilucidar la naturaleza de estos candidatos. Los otros dos artículos son Matías Suazo, Erik Zackrisson, …, Suman Majumdar, «Project Hephaistos – II. Dyson sphere candidates from Gaia DR3, 2MASS, and WISE,» MNRAS (accepted), arXiv:2405.02927 [astro-ph.SR] (05 May 2024), doi: https://doi.org/10.48550/arXiv.2405.02927; y Matías Suazo, Erik Zackrisson, …, Armin Nabizadeh, «Project Hephaistos – III. Characterizing anomalous infrared sources identified as Dyson Sphere candidates,» Google Drive PDF (2024).

 

Me toca comentar una noticia de abril en criptografía cuántica. Yilei Chen (Shanghai Artificial Intelligence Laboratory) publicó un preprint en el IACR (Cryptology ePrint Archive) que cuestionaba la seguridad de los sistemas de criptografía postcuántica (Yilei Chen, «Quantum Algorithms for Lattice Problems,» Paper 2024/555, IACR, 10 Apr 2024). Proponía un algoritmo eficiente (de coste polinómico) para resolver el problema del aprendizaje con errores (LWE, por learning with errors); gracias a dicho algoritmo resolvía de forma eficiente el problema de decisión del vector más corto en un retículo (GapSVP) y el problema de vector independiente más corto (SIVP), en concreto, para un retículo de dimensión n se obtenía la aproximación en Ω(𝑛4.5). Estos problemas están son NP-hard y son la base para algunos algoritmos de criptografía postcuántica.

La figura ilustra el GapSVP, dado un punto fuera de un retículo (punto y vector verdes) hay que encontrar el punto del retículo más próximo (punto rojo) usando una base de vectores definida en el retículo (vectores en azul). Sean los vectores en azul b1 = (1,2) y b2 = (1,1). Para una base natural, sea (1,0) y (0,1), el problema se resuelve de forma eficiente; el punto verde, sea (−0.6, 1.1), se aproxima por el rojo (−1, 1), que es 2b1 −3b2; determinar estos coeficientes enteros para una base cualquiera en un retículo en n dimensiones es un problema NP duro. En criptografía se usa esta diferencia para proponer un algoritmo de cifrado con clave pública (el camino fácil para decodificar usa la base natural secreta, mientras el camino fácil para codificar usar la base no natural pública; el criptoanálisis con la base no natural pública es muy difícil).

El algoritmo de Chen usaba la transformada de Fourier discreta (cuya versión cuántica fue la clave para el algoritmo de Shor de factorización de números primos), quizás por eso se montó un enorme revuelo en abril entre los expertos en criptografía cuántica. La clave del algoritmo es usar funciones gaussianas con varianza compleja, exp (−π x²/(a+b i)), las llamadas ondas Karst (arriba a la derecha en la figura) que aparecen en su transformada de Fourier discreta (abajo a la derecha en la figura) y un uso inteligente de la transformada de Fourier cuántica con ventanas. No merece la pena entrar en los detalles del algoritmo (ya que como tiene un error). El trabgajo de Chen suponía un duro varapalo a los sistemas de cifrado postcuántico más prometedores, que están basados en algoritmos sobre retículos, como los ganadores del concurso Post-Quantum Cryptography del NIST (Instituto Nacional de Estándares y Tecnología). Pero el 18 de abril, Chen modificó el preprint, el paso 9 de su algoritmo tenía un error (sección 3.5.9, página 37), como descubrieron de forma independiente Hongxun Wu y Thomas Vidick. No se sabe si será posible corregirlo, pero parece que Chen no lo ve posible (aún así, las herramientas de su demostración podrían ser útiles para otros problemas). El cifrado postcuántico se salvó in extremis. Nos lo contó Scott Aaronson, «That IACR preprint,» Shtetl-Optimized, 16 Apr 2024. Más información en «Polynomial-time Quantum Algorithms for Lattice Problems,» Cryptograhpy Stack Exchange, 10 Apr 2024.

Nos habla Héctor de los orígenes del Sistema Solar, de las migraciones planetarias según el modelo de Niza y de la hipótesis del gran viraje (Grand Tack) del planeta Júpiter. Los dos grandes planetas gaseosos Júpiter y Saturno se formaron en unos pocos millones de años a partir de un disco protoplanetario dominado por gas. En menos de cien mil años migraron hacia el interior del Sistema Solar y luego viraron hacia el exterior. Los planetas rocosos finalizaron su acreción de materia mucho más tarde. Las simulaciones predicen la estructura actual del Sistema Solar, incluyendo la pequeña masa de Marte, cuando Júpiter se acerca a solo 1.5 UA del Sol. El proceso reduce la masa del disco de acreción a menos de 1 UA, lo que conduce a una formación en unos 50 millones de años de planetas como Venus, Tierra y Marte. El alejamiento de Júpiter produce una región vacía, que se repuebla con el cinturón de asteroides gracias a cuerpos originados entre 1 y 3  UA, además de cuerpos del cinturón exterior que se originan entre los planetas gigantes y más allá.

Nos comenta Héctor que las simulaciones del modelo de Niza usan como condición inicial una configuración muy compacta para la posición de los embriones de los planetas gaseosos (los embriones estarían para Júpiter a 3.5 UA, Saturno a 4.5 UA, Urano a 6 UA y Neptuno a 8 UA, cuando ahora mismo Saturno está a 9.5 UA). Estos planetas se mueven en un «continuo de masa», un disco protoplanetario que es una fuente extensa de gravedad; los planetas con menos de diez masas terrestres no generan un surco en el disco y migran hacia adentro. Sin embargo, los planetas con más de diez masas terrestres logran generar un surco en el disco. Estos planetas migran hacia el interior cuando alcanzan un cierto tamaño, primero Júpiter y luego Saturno, pero más rápido, le siguen Urano y Neptuno. En cierto momento Saturno está tan cerca de Júpiter que aparece una resonancia 3:2, para tres órbitas de Júpiter, Saturno daría dos órbitas; este proceso de resonancia, cuando Júpiter está a 1.5 UA (para entonces la Tierra aún no existe, s9lo está un disco de gas y escombros) y Saturno a 1.7 UA; a partir de este momento ocurre el Grand Tack (gran viraje), a unos cien mil años de formación del Sistema Solar, ambos se empiezan a alejar. Saturno se encuentra con Urano y Neptuno que migran hacia el centro, entra en resonancia 2.5 con  resuenan y ambos se alejan; y luego le pasa a Urano con Neptuno.

Estas simulaciones permiten explicar las características únicas de nuestro Sistema Solar. Incluyendo las diferencias de composición de los cuerpos del cinturón de asteroides. Incluso, la cantidad de agua disponible que ha llegado a la Tierra para formar los océanos. Héctor recomienda los artículos de Kevin J. Walsh, Alessandro Morbidelli, …, Avi M. Mandell, «A low mass for Mars from Jupiter’s early gas-driven migration,» Nature 475: 206-209 (05 Jun 2011), doi: https://doi.org/10.1038/nature10201; Alessandro Morbidelli, Kleomenis Tsiganis, …, Rodney Gomes, «Dynamics of the Giant Planets of the Solar System in the Gaseous Protoplanetary Disk and Their Relationship to the Current Orbital Architecture,» The Astronomical Journal 134: 1790 (13 Sep 2007), doi: https://doi.org/10.1086/521705; K. Tsiganis, R. Gomes, …, H. F. Levison, «Origin of the orbital architecture of the giant planets of the Solar System,» Nature 435: 459-461 (26 May 2005), doi: https://doi.org/10.1038/nature03539; R. Gomes, H. F. Levison, …, A. Morbidelli, «Origin of the cataclysmic Late Heavy Bombardment period of the terrestrial planets,» Nature 435: 466-469 (26 May 2005), doi: https://doi.org/10.1038/nature03676.

Me toca comentar un artículo en Nature sobre cúbits tipo gato (cat qubits) que ha logrado mantener la coherencia durante diez segundos. La idea es usar fotones encerrados en un cavidad óptica como un oscilador armónico cuántico; como se usan muchos fotones, se trata de un sistema macroscópico, pero con estados cuánticos coherentes (por ello sus estados son de tipo gato de Schrödinger). Este sistema es disipativo, si se emite un fotón se penaliza la coherencia cuántica; pero se puede controlar la disipación usando esquemas con parejas o cuartetos de fotones. Además, hay que luchar contra la decoherencia cuántica usando una medida reiterada del estado cuántico (lo que se llama una medida de Zenón, por su paradoja). Gracias a todo ello se puede codificar un cúbit lógico robusto protegido contra cambios en su valor (bit-flip) y en su fase (phase-flip), lo que se propuso en 2014 por Mazyar Mirrahimi, Zaki Leghtas, …, Michel H Devoret, «Dynamically protected cat-qubits: a new paradigm for universal quantum computation,» New Journal of Physics 16: 045014 (22 Apr 2014), doi: https://doi.org/10.1088/1367-2630/16/4/045014, arXiv:1312.2017 [quant-ph] (06 Dec 2013). Desde entonces se ha avanzado mucho en este tipo de tecnología para intentar lograr la mayor duración posible del estado coherente (aunque se aún está muy lejos de permitir diseñar un ordenador cuántico con muchos cúbits lógicos).

El año pasado, se publicó un gran éxito, un cúbit de tipo gato que fue coherente durante 100 segundos para cambios de valor (bit-flip), en C. Berdou, …, M. Mirrahimi, …, Z. Leghtas, «One Hundred Second Bit-Flip Time in a Two-Photon Dissipative Oscillator,» PRX Quantum 4: 020350 (23 Jun 2023), doi: https://doi.org/10.1103/PRXQuantum.4.020350, arXiv:2204.09128 [quant-ph] (19 Apr 2022). Para garantizarlo se usó un sistema de tomografía cuántica basado en un transmón (cúbit superconductor) que penaliza la coherencia en fase (no está protegido contra cambios de fase, phase-flip), lo que impide estados coherentes entre muchos cúbits tipo gato. El nuevo avance que se publica en Nature es el uso de una nueva técnica de tomografía cuántica que garantiza la coherencia en fase. Aunque se reduce el tiempo de vida a 10 segundos, se garantiza la protección tanto para cambios en valor (bit-flip) y en fase (phase-flip). Un gran paso para que en el futuro se puedan acoplar dos cúbits tipo gato, y de ahí en adelante ir aumentando su número.

Como siempre, debemos ser cautos con los avances en nuevas tecnologías para implementar cúbits robustos. Hasta ahora solo se ha demostrado la robustez para un único cúbit. No hay garantías que se mantenga para un gran número de cúbits lógicos, siendo de esperar que su duración se reduzca más cuantos más cúbits se incluyan. Pero tampoco hay nada que prohíba que esta tecnología supere algún día a su competencia. El artículo es U. Réglade, …, M. Mirrahimi, …, Z. Leghtas, «Quantum control of a cat qubit with bit-flip times exceeding ten seconds,» Nature (06 May 2024), doi: https://doi.org/10.1038/s41586-024-07294-3, arXiv:2307.06617 [quant-ph] (13 Jul 2023). Por cierto, ¿el avance logrado respecto al artículo de PRX Qunatum en 2023 es suficiente para merecer la publicación en Nature? Tengo serias dudas (también las tienen dos de los tres revisores para Nature).

Y pasamos a Señales de los Oyentes. Néstor Martínez (NeMa) pregunta: «Respecto a las esferas de Dyson, dado que observamos su exterior, ¿no sería esperable que esté a muy baja temperatura? Algo tan sofisticado debería ser muy eficiente». Contesta Héctor que se trata de biosferas que reciben la irradiación de su estrella para calentarse a una temperatura ambiente (que permita el agua líquida).

Thomas Villa pregunta: «Esto [preguntó cuando hablé de criptografía cuántica] es muy interesante para ver dónde exactamente acaece esa decoherencia cuántica gracias a los ordenadores, ¿no?» Ni Héctor ni yo entendemos la pregunta en el contexto del algoritmo de Chen o del cifrado cuántico. Contesto, al hilo de los cúbits tipo gato, que el esquema para luchar contra la decoherencia retrasa sus efectos. La decoherencia, per se, no es un proceso que acontezca en cierto momento, sino que es algo ocurre a lo largo del tiempo (se suele modelar como una caída exponencial del tiempo de coherencia). 

Salvador García comenta: «Quizá si merezca la pena usar ordenadores cuánticos para descifrar [el] cifrado de cadena de bloques (bitcoin y similares)» Contesto que creo que el coste de un ordenador cuántico es mucho más alto que el beneficio potencial de descifrar el sistema de protección de la cadena de bloques usada en bitcoin. Se usan algoritmos estándares de cifrado y en su día se usarán algoritmos postcuánticos.

Marisa Castiñeira pregunta: «Me preguntaron [mis] alumnos si los asteroides (aunque no todos) podrían formar un planeta, aunque sea muy pequeño». Conetsta Héctor que no, porque tienen muy poca masa. Todos los asteroides suman una masa total mucho menor que la de la Luna. Además, no se pueden agregar porque lo impide la gravedad de Júpiter.

Emiliano Retri​​ pregunta: «¿Hay alguna previsión de qué tipo de impacto pueden tener los circuitos cuánticos en la industria?» Comento que hoy en día hay un enorme interés en la industria por usar tecnologías cuánticas. Toda la industria, desde la financiera a la militar, está interesada en usar ordenadores cuánticos. Sobre todo porque hay mucha financiación pública en todo el mundo para este tipo de proyectos (proponer el uso de los ordenadores cuánticos para cualquier cosa).  Destaco que creo que es muy importante que los jóvenes aprendan a usar ordenadores cuánticos. Comenta Jose que en Galicia se encuentra el ordenador cuántico más poderoso de España, Qmio, con 32 cúbits, en el Centro de Supercomputación de Galicia (CESGA). Y que tiene un programa específico para formar a jóvenes en su uso. Una gran iniciativa.

Bromea Juan Manuel Cruz​​Broma: «En Galicia es más sencillo encontrar cúbits: cualquier gallego puede estar en dos estados opuestos simultáneamente». Jose ratifica el comentario.

Rubén Bautista Reyes​​ pregunta: ¿Entonces cualquier parecido de la ley de Titius–Bode con la realidad es casualidad?» Héctor contesta que así es, es una ley empírica, accidental, como diría Gastón, contingente. No se trata de una ley física, pero tampoco es una casualidad, solo es una correlación.

Cebra pregunta: «No me quedó claro por qué unos [planetas] son rocosos y los más lejanos no, habiendo estado hacia el interior en un principio [del Sistema Solar]». Héctor contesta que la separación entre planetas rocosos y gaseoso es por el tamaño, por la masa. Un planeta masivo puede retener el hidrógeno y el helio, pero los poco masivos no tienen gravedad suficiente para retenerlos. Por tanto, es una cuestión de tamaño, no de distancia (aunque también influye porque los más cercanos al Sol son más calientes, lo que calienta el hidrógeno y el helio, aumenta la velocidad de sus átomos y facilita que superen la velocidad de escape de dicho planeta).

Pablo Caro Revuelta pregunta: «​¿Dónde encaja ahí el posible planeta 9?» Marcelo Amigo pregunta: «¿Cómo podría modificar [la] formación [del Sistema Solar según el modelo de Niza] un Planeta 9?» Contesta Héctor que el Planeta 9 habría sido lanzado hacia afuera por Júpiter o Saturno. Pero para que no escapara se necesitaría la acción del cúmulo de estrellas original donde nació el Sol; el lanzamiento tuvo que ocurrir cuando dicho cúmulo era más denso. Por cierto, comenta que durante su tesis en Upsala le comentaron que hay indicios de que el cúmulo M67(∗) sea el original del Sol, pues contiene una estrella gemela al Sol. (∗) [PS 14 may 2024] Por lo que parece, Héctor recordaba M66 pero es M67. [/PS]

Raquel Pérez Moneo pregunta: «​​Pero aún falta explicar por qué en nuestro Sistema [Solar] los planetas gaseosos están alejados de la estrella, cuando lo habitual es que estén más cerca, ¿no?» Héctor dice que no sabemos qué es lo más habitual. Nuestras observaciones están sesgadas hacia los jupiterinos calientes, porque son más fáciles de observar. En el Sistema Solar la razón es lo que contó Héctor, que Saturno evitó que Júpiter acabara como jupiterino caliente. Tener dos gigantes gaseosos comparables en masa, Júpiter y Saturno, evitó que ocurriera. En un sistema estelar con un solo gigante tipo Júpiter, la migración acaba en un jupiternio caliente.

¡Que disfrutes del podcast!



15 Comentarios

  1. Las esferas de Dyson son un juego divertido para la imaginación, pero no tienen sentido ni como suelo urbanizable, ni como placas solares.
    En el primer caso, en cuanto te alejas del ecuador disminuye la gravedad y aumenta el efecto Coriolis. La mayor parte de la esfera sería inhabitable. Tendría más sentido un baile de anillos concéntricos con distinto eje y velocidad de rotación. Pero el único motivo para hacerlos con un radio cercano a la unidad astronómica sería recibir una radiación parecida a la de un planeta a esa distancia. Si lo que quieren es suelo urbanizable, también tendría más sentido hacer justo lo contrario. Prescindir de la estrella, hacer millones de pequeñas biosferas alimentadas con reactores de fusión y mandarlas a colonizar la galaxia.
    En el segundo caso, como panel solar, no hace falta una esfera tan grande. No tiene que ser habitable. Puede ser mucho más pequeña, peinando las erupciones de la corona. Pero, si no respiramos todo el oxígeno de la atmósfera, si no bebemos todo el agua de los océanos, ¿para qué necesitaría una civilización aprovechar toda la energía que produce una estrella?. Es un maximalismo absurdo.
    Meter una estrella en una caja es una idea tan peregrina como vestir de torero a una bacteria. De divertido no pasa. La literatura sobre la exploración tripulada y la colonización de otros planetas o del espacio en biosferas artificiales pasará a la historia como mitología del siglo XX. Las civilizaciones son parte de la biosfera que las produce y nunca serán otra cosa. Nuestro planeta es nuestra cuna y nuestra tumba.

    1. Muy de acuerdo, una civilización tan avanzada no va a perder el tiempo en hacer algo tan costoso, que necesita para su construcción una cantidad de masa, energía y tiempo descomunales que superan los beneficios.
      Seguro que hay métodos mejores.

    2. Como explica Hector, la idea del paper original no es una esfera alrededor del sol, si no que Dyson, dentro de una idea maltusiana de crecimiento de la sociedad, imaginaba que habría un aumento de satélites alrededor de la estrella con un objetivo energético, en una sociedad que se está expandiendo fuera de los límites de su planeta. Se trata simplemente de detectar elementos alrededor de la estrella que no puedan explicarse naturalmente. Obviamente, esta finalidad, sin duda, traerá conocimiento sobre condiciones naturales ahora desconocidas.

      Se me hace que es muy poco probable encontrar tecnomarcadores. Para hacerse una idea de lo difícil que es coincidir con una sociedad avanzada en la galaxia, no basta solamente en pensar en las probabilidades para ellos…si no que también darse cuenta de que si una sociedad que fuera capaz de expandirse por su localidad de la galaxia (imaginemos la cantidad de tecnología que habrá por todas partes) desapareciera, en solo un millón de años no quedaría ni la más mínima evidencia, nada, cero…un millón de años en la escala de la vida de la galaxia es nada. En nuestra galaxia podría haber habido unas «guerra de las galaxias» con su imperio y toda la parafernalia, y nunca lo sabremos…(Nota:puedo imaginar que si en sus aventuras, han manipulado la vida en algunos planetas, ciertas coincidencias entre la vida en uno y otro planeta nos podría dar pistas de que hubo algo, pero no tendríamos más pistas)

      1. Aclaro que obviamente las evidencias dentro de un planeta tardan en desaparecer más de un millón de años, pero desde que no detectas nada en el espacio, hasta que tienes al capacidad de viajar a aquellos lugares, las evidencias dentro de los planetas también han desaparecido, en solo mil millones de años ya no queda ni rastro siquiera de actividad radioactiva

      2. «la idea del paper original no es una esfera alrededor del sol»

        Pues no sería la idea, pero es lo que dice el paper.

        «en solo un millón de años no quedaría ni la más mínima evidencia»

        Por eso Socas dice que la búsqueda de tecnomarcadores sería una forma de arqueología, de restos de la cultura material de civilizaciones desaparecidas. Y propone los exocinturones de Clarke. Si un planeta tiene muchos objetos en la órbita geoestacionaria, serán artificiales y se mantendrán allí durante muchos millones de años.

        1. ¿Dice expresamente Millones de años? En un millón de años, cualquier objeto artificial, en el espacio, ha desaparecido por completo… Dentro de un planeta, según condiciones, te dura mucho más, pero fuera de la atmósfera…No sé…no soy experto, pero no lo veo…

          1. Creo que sí, pero hace tiempo que vi su charla en el simposio sobre tecnomarcadores de la NASA. También me suena que en otra ocasión mencionó que la órbita no es tan estable como pensaba.

  2. Muchas gracias por contestar siempre a las preguntas! 🙂 Lo que decia sobre la decoherencia era relacionado a la frase «algun dia existan ordenadores cuanticos que descifren las claves que utilizamos hoy, ya que hay claves ahora de 1024 bits, y en el futuro utilizaremos claves de un millon de bits». Conocer la velocidad de la caida hacia la decoherencia desde un sistema cuantico hacia un sistema clasico con un millon de bits quizas es algo posible (y medible experimentalmente) cuando aumenta el numero de bits a disposicion no? O habre entendido mal? Muchas gracias y un gran saludo, siempre un placer interactuar y aprender! 🙂

    1. Thomas, la escala de tiempo de la decoherencia sobre un conjunto de cúbits depende del efecto del entorno sobre dichos cúbits. Por definición de entorno, lo que no podemos modelar en detalle, no hay manera de estimar de forma teórica su efecto sobre un cúbit, o sobre muchos cúbits, aunque se puede medir. Por desgracia, el efecto medido sobre un cúbit no se puede extrapolar a un conjunto de cúbits, la única opción es medirlo.

  3. Hola! Yo suelo encontrarme con un pequeño conflicto interno a la hora de hablar de estos temas. Por una parte, no creo que existan las esferas de Dyson, aunque científicamente lo que uno crea es irrelevante y entiendo que es importante la comprobación empírica. A lo largo de la historia de la ciencia, a menudo hemos «creído» cosas que dábamos por sentadas y luego resultaron ser completamente equivocadas cuando alguien las pudo comprobar. Pero por otra parte siento una necesidad de defender a Freeman Dyson porque la ciencia ficción ha llevado una visión distorsionada de sus ideas a la cultura popular, lo que hace que mucha gente exprese opiniones poco informadas desde una posición de pretendida superioridad intelectual, en ocasiones sugiriendo de forma más o menos explícita que Dyson era poco menos que un idiota o un ignorante en materia científica. Nada más lejos de la realidad. Era una persona muy inteligente y con un conocimiento profundo de la física, seguramente muy superior al de la inmensa mayoría de quienes le ridiculizan. Respecto al comentario concreto, me gustaría apuntar dos errores, además del habitual de ver las esferas de Dyson como un mecanismo de recolección de energía. El primer error es considerar que las esferas de Dyson son una estructura sólida (ecuador, efecto Coriolis…). Si bien esto es parte de la idea popular, no era el planteamiento original de Dyson. Él hablaba de un enjambre de superficies, cada una con su propia órbita, que colectivamente ocupaban un área más o menos esférica. El segundo error es pensar que es más eficiente extraer energía de las erupciones coronales. Habría que definir un poco mejor a qué nos referimos con «erupciones coronales», que es un término coloquial que puede referirse a diferentes fenómenos físicos, pero voy a asumir que se trata de fulguraciones. Las fulguraciones de clase X (las más potentes) liberan una potencia del orden de 10^10 W (asumiendo una fulguración X1 y un área típica de mancha solar). Comparando este número con la luminosidad solar, que es de 10^26 W vemos que hay 16 órdenes de magnitud entre la energía producida cada segundo por el Sol y la que produce una fulguración X1. Eso es diez mil billones (con «b») de veces más energía. Y, por supuesto, las fulguraciones solo ocurren en sitios específicos y tienen una duración breve, mientras que la luminosidad solar está ahí continuamente. Las «erupciones coronales» son muy espectaculares y ahora mismo están muy de moda pero son insignificantes en el presupuesto energético del Sol. No hay nada de malo en tener ideas peregrinas o dejarse llevar por especulaciones pero es un error pensar que Freeman Dyson era un ignorante, error muy extendido por cómo la cultura popular ha transmitido sus ideas.

    1. Primero, supongo que no eres H. Socas.

      «mucha gente exprese opiniones poco informadas desde una posición de pretendida superioridad intelectual, en ocasiones sugiriendo de forma más o menos explícita que Dyson era poco menos que un idiota o un ignorante en materia científica.»

      Segundo, mi superioridad intelectual no es pretendida. Es una verdad absoluta, porque me lo dijo mi mamá. Y Dyson no era un ignorante, pero sí un tirillas con una nariz enorme. Pero estoy de acuerdo con él, cuando dijo que no veía como un problema que la relatividad general y la cuántica no encajen.

      «Respecto al comentario concreto, me gustaría apuntar dos errores»

      Si es un comentario a un comentario, es mejor ponerlo en su sitio, para saber si hay que respoder.

      «además del habitual de ver las esferas de Dyson como un mecanismo de recolección de energía. El primer error es considerar que las esferas de Dyson son una estructura sólida (ecuador, efecto Coriolis…)»

      En el artículo de 1967, Dyson menciona ambos motivos. La recolección de energía y la necesidad de espacio habitable. Solo habla de una «spherical shell» y de su grosor. Después hizo aclaraciones a las ideas de un artículo tan breve y llegó a detestar que se asociara con su nombre.

      «El segundo error es pensar que es más eficiente extraer energía de las erupciones coronales.»

      No sugería extraer energía de las erupciones coronales, sino hacer una esfera mucho más pequeña. Con la expresión «peinando las erupciones de la corona» pretendía que se entendiera una esfera del tamano de la estrella.

      Y como se mencionó en el programa, el error del artículo de Dyson, comprensible en aquella época, es este: «It is then a reasonable working hypothesis that their habitat will have been expanded to the limits set by Malthusian principles.» La transición demográfica no afecta solo a los países ricos. Excepto un puñado de países del África subsahariana, ya es un fenómeno mundial. No habrá explosión malthusiana.

      1. Después de escuchar la entrevista en «Universo de misterios» supongo que sí eres Socas. Haces la misma defensa de Dyson.

        Gracias por el programa.

  4. Bueno más que sugerir que la «ley» de Titus-Bode no sea contingente (está claro que lo es) hacía un poco de broma sobre eso que decía Edelstein sobre que los músicos afinaban los instrumentos y la migración de los planetas en Modelo de Niza con la hipótesis del Grand Tack. Podría ser considerada la forma que los músicos (planetas) afinan los instrumentos (dan cierta alteración a la posición de las cosas que luego da con el tiempo esa distribución de planetas y tiempos de órbita). Y mi broma es seguir con esa interpretación y preguntar si se podría considerar que la ley de Titus-Bode sería esa afinación o parte de la composición musical resultante, al tener esa correlación como resultante y ya. Seguía con la analogía que me pareció chula pero a no confundir las cosas jugando con ella fuera de su realidad (que a veces ocurre con las analogías). Perdón. Pero buenas respuestas. Y me parece adecuado «correlación Titus-Bode» ¿o «correlación solar Titus-Bode? Bueno

Deja un comentario