Te recomiendo disfrutar del episodio 473 del podcast Coffee Break: Señal y Ruido [iVoox A, iVoox B; ApplePodcast A y ApplePodcast B], titulado “Ep473: Marte; Venus; Simulismo; Brahe; Modelos Climáticos», 08 ago 2024. «La tertulia semanal en la que repasamos las últimas noticias de la actualidad científica. Cara A: Aniversario de la señal “Wow!” (7:00). Más agua en Marte (10:10). Nuevas medidas de fosfano en Venus (26:00). Cara B: Tungsteno en el laboratorio de Tycho Brahe, siglos antes de su descubrimiento (00:16). Modelos climáticos y meteorológicos con redes neuronales (42:16). El trilema de Bostrom y el simulismo (o hipótesis de la simulación). Parte II. Sobre tests observacionales (1:04:56). Imagen de portada realizada por Héctor Socas. Todos los comentarios vertidos durante la tertulia representan únicamente la opinión de quien los hace… y a veces ni eso».
¿Quieres patrocinar nuestro podcast como mecenas? «Coffee Break: Señal y Ruido es la tertulia semanal en la que nos leemos los papers para que usted no tenga que hacerlo. Sírvete un café y acompáñanos en nuestra tertulia». Si quieres ser mecenas de nuestro podcast, puedes invitarnos a un café al mes, un desayuno con café y tostada al mes, o a un almuerzo completo, con su primer plato, segundo plato, café y postre… todo sano, eso sí. Si quieres ser mecenas de nuestro podcast visita nuestro Patreon (https://www.patreon.com/user?u=93496937). ¡Ya sois 266! Muchas gracias a todas las personas que nos apoyan. Recuerda, el mecenazgo nos permitirá hacer locuras cientófilas. Si disfrutas de nuestro podcast y te apetece contribuir… ¡Muchísimas gracias!
Descargar el episodio 473 cara A en iVoox.
Descargar el episodio 473 cara B en iVoox.
Como muestra el vídeo participamos por videoconferencia Héctor Socas Navarro @HSocasNavarro (@pCoffeeBreak), Héctor Vives-Arias @DarkSapiens, Isabel Cordero @FuturaConjetura (solo cara B), Sara Robisco Cavite @SaraRC83, Gastón Giribet @GastonGiribet, y Francis Villatoro @eMuleNews. Por cierto, agradezco a Manu Pombrol @ManuPombrol el diseño de mi fondo para Zoom; mchas gracias, Manu.
Tras la presentación, Héctor recuerda que hoy se cumplen 47 años de la señal Wow! y recomienda este vídeo en YouTube de David Kipping, «The Wow! Signal After 45 Years,» 18 jun 2022. Esta señal «6EQUJ5» tiene las propiedades esperadas para una señal SETI, pero se desconoce su origen.
El otro Héctor (Vives), nos cuenta la posible existencia de agua subterránea en Marte. La sonda InSight de la NASA nos ha ofrecido mucha información sobre el interior de Marte gracias a la sismografía. Un nuevo análisis de sus datos sísmicas apunta que hay una cantidad de agua subterránea capaz de cubrir todo el planeta hasta una profundidad de entre 1 y 2 kilómetros. Se encuentra en pequeñas grietas y poros de la roca la corteza media marciana, entre 11.5 y 20 kilómetros por debajo de la superficie. Se ha usado un modelo matemático geofísico muy simplificado, similar al usado para cartografiar acuíferos subterráneos y yacimientos petrolíferos en la Tierra. La observación es resultado de ajustar el modelo mediante técnicas bayesianas para maximizar el uso de los pocos datos disponibles; el modelo tiene en cuenta la fracción porosa de la roca, de la que se infiere la cantidad (potential) de agua líquida. Básicamente se trata de un cuenta de servilleta.
Alcanzar dicha agua (si en realidad existe) con un pozo perforado en Marte es imposible (incluso en la Tierra un pozo de más de 12 km raya lo imposible). Estos (supuestos) depósitos de agua líquida ayudarán a entender el clima pasado de Marte, cuando tenía agua líquida en su superficie (hace más de 3000 millones de años). El nuevo hallazgo indica que gran parte del agua marciana no escapó al espacio, sino que se filtró hacia la corteza. El artículo es Vashan Wright, Matthias Morzfeld, Michael Manga, «Liquid water in the Martian mid-crust,» PNAS 121: e2409983121 (12 Aug 2024), doi: https://doi.org/10.1073/pnas.2409983121; la nota de prensa es «Scientists find oceans of water on Mars. It’s just too deep to tap,» University of California – Berkeley, 12 Aug 2024. Recomiendo la pieza de Antonio Martínez Ron, «El interior de Marte contiene una inmensa reserva de agua líquida, procedente de sus antiguos océanos,» elDiario.es, 12 ago 2024.
Me toca comentar las últimas noticias sobre el fosfano (fosfina), PH₃, en la atmósfera de Venus (LCMF, 10 ago 2024). Los resultados presentados en la sesión sobre Venus en el congreso NAM2024 (National Astronomy Meeting de la Royal Astronomical Society) organizado por David Clements (Imperial College de Londres) y Jane Greaves (Univ. Cardiff, Reino Unido). Clements ha usado el telescopio JCMT (James Clerk Maxwell Telescope) durante tres campañas de observación y afirma haber observado dos líneas de absorción, una a 266.15 GHz, que se puede atribuir a 0.8 ppm (partes por millón) de HDO (agua pesada), y otra a 266.94 GHz, que según estimaciones previas es del orden de pocas ppb (partes por millardo) de PH₃ (fosfano). Clements dice que lo ha observado en la transición de la noche al día, pero no se observa en la transición del día a la noche (recuerda que el día en Venus dura unos 243 días terrestres y el año dura unos 225 días terrestres). Según Clements, durante el día, la luz ultravioleta solar descompone el fosfano, por lo que no resulta visible.
Greaves ha detectado amoníaco, NH₃, en la atmósfera venusiana usando el radiotelescopio Green Bank (GBT) en Virginia Occidental. Tampoco hay artículo científico. Ella destacó que nuevas observaciones con ALMA (Atacama Large Millimeter/submillimeter Array) descartan que la señal original observada fuese debida al dióxido de azufre (Jane S Greaves, …, David L Clements, …, Helen J Fraser, «Low levels of sulphur dioxide contamination of Venusian phosphine spectra,» MNRAS 514: 2994-3001 (30 May 2022), doi: https://doi.org/10.1093/mnras/stac1438). De hecho, en las nubes de Venus las gotas de agua contienen dióxido de azufre disuelto, que se convierte en ácido sulfúrico concentrado. Esta sustancia solo es tolerada en la Tierra por algunas bacterias extremófilas. La presencia de amoníaco dentro de estas gotas podría actuar como un amortiguador de la acidez, lo que facilitaría que bacterias similares a las terrestres puedan sobrevivir en ellas. Según Greaves, el amoníaco podría ser producto de vida microbiana venusiana, como mecanismo de supervivencia.
Como suele ser habitual, desbarramos bastante sobre este tema, el origen biológico o abiótico, y acabamos recomendando el juego de Sara, «Space Explorer» https://simmer.io/@SaraRC/spaceexplorer.
Nos cuenta Gastón que se ha encontrado wolframio (él le llama tungsteno) en el laboratorio de Tycho Brahe (1546–1601). El wolframio fue descubierto en 1779 por Peter Woulfe, mientras estudiaba la wolframita; predijo un nuevo elemento, pero no lo logró aislar. En 1781, Carl Wilhelm Scheele y Torbern Berg también predijeron un nuevo elemento, tras reducir el ácido túngstico (de ahí el nombre de tungsteno). Fue en 1783, en el País Vasco (España), cuando los hermanos Juan José Elhúyar y Fausto Elhúyar consiguieron aislar un nuevo elemento químico, al que llamaron wolframio, porque partieron de wolframita de Bohemia, región entre Alemania y la República Checa. Se han analizado cuatro fragmentos de vidrio y un fragmento de cerámica de una excavación arqueológica en 1988–1990. Usando ablación láser, que genera un plasma, se ha estudiado con espectrometría de masas para detectar su composición. En concreto, en el fragmento de cerámica KLR-13159 se ha encontrado Ni, Cu, Sn, W, Hg y Pb.
La presencia de wolframio (W) ha sido inesperada; pues como sustancia pura no era conocido por los alquimistas en la época de Brahe. Se ignora la fuente de este wolframio, que se tuvo incluir en la composición de la cerámica sin saber que era un elemento desconocido, quizás por una identificación errónea. La alquimia seguro que nos guarda muchos otros secretos similares. El artículo es Kaare Lund Rasmussen, Poul Grinder-Hansen, «Chemical analysis of fragments of glass and ceramic ware from Tycho Brahe’s laboratory at Uraniborg on the island of Ven (Sweden),» Heritage Science 12: 228 (25 Jul 2024), doi: https://doi.org/10.1186/s40494-024-01301-6.
Nos cuenta Sara que se ha publicado en Nature el uso de redes de neuronas artificiales en modelos climáticos y meteorológicos. Los modelos de circulación general (GCM) se usan en la predicción del tiempo meterológico y el clima global. Se basan en la simulación numérica de las leyes de la geofísica y requieren supercomputadores. En los últimos años se ha propuesto el uso de modelos de aprendizaje automático entrenados con datos de reanálisis, que están logrando resultados espectaculares en la predicción meteorológica a corto plazo. Hasta ahora no habían mostrado utilidad en el pronóstico a largo plazo. El nuevo modelo NeuralGCM combina un simulador estándar de la dinámica atmosférica con componentes de aprendizaje automático; esta combinación resulta ser útil para generar pronósticos del clima y para predicción meteorológica hasta diez días. Su resultado es comparable al obtenido por el Centro Europeo de Pronósticos Meteorológicos a Plazo Medio ECMWF por sus siglas en inglés).
NeuralGCM produce pronósticos climáticos durante varias décadas con una resolución de 140 kilómetros, que muestran fenómenos emergentes como la frecuencia y las trayectorias realistas de los ciclones tropicales. Esta figura compara (a) la estimación a partir de datos reales para el 1 de septiembre de 2020 y las predicciones diez días antes de (b) ECMWF, (c) NeuralGCM y (d) GraphCast (un modelo neuronal puro, no híbrido). El nuevo enfoque supone un ahorro computacional de varios órdenes de magnitud en comparación con los GCM convencionales. Pero, como es de esperar, dicho modelo no se extrapola a climas futuros muy diferentes del actual. Sin lugar a dudas es un avance que nos muestra la potencia y las limitaciones de los modelos de aprendizaje. El artículo es Dmitrii Kochkov, Janni Yuval, …, Stephan Hoyer, «Neural general circulation models for weather and climate,» Nature (22 Jul 2024), doi: https://doi.org/10.1038/s41586-024-07744-y; más información divulgativa en Oliver Watt-Meyer, «Weather and climate predicted accurately —without using a supercomputer,» News & Views, Nature, 13 Aug 2024, doi: https://doi.org/10.1038/d41586-024-02558-4.
Pasamos a un asunto pendiente, la segunda parte del episodio 471 sobre el trilema de Bostrom y el simulismo (la hipótesis de la simulación). Si la realidad es una simulación, si vivimos en una «realidad virtual», ¿hay evidencias observacionales? A Héctor le gusta la idea de que se haya propuesto como detectar que la realidad es virtual. Héctor destaca dos artículos, el primero es Silas R. Beane, Zohreh Davoudi, Martin J. Savage, «Constraints on the universe as a numerical simulation,» The European Physical Journal A 50: 148 (2014), doi: https://doi.org/10.1140/epja/i2014-14148-0, arXiv:1210.1847 [hep-ph] (04 Ocr 2012). Propone que una simulación del universo tendría problemas similares a los que tendrían las simulaciones en física fundamental; en concreto, se considera la QCD en el retículo (Lattice QCD), en la que aparecen violaciones de la simetría de Lorentz asociadas a la discretización; pero corregirlas, se añaden términos correctores al lagrangiano (o a la acción), que conducen a las llamadas «simulaciones mejoradas» (o modificadas). En el artículo se propone que si la simulación del universo no incluye este tipo de correcciones, se podrían observar violaciones de la simetría Lorentz en la Naturaleza, que desvelarían que el universo es simulado. Como comenta Héctor se proponen tres posibles violaciones: el momento magnético anómalo g−2 del muón, estudios ultraprecisos de las líneas espectrales y la relación de dispersión (relación entre energía y velocidad) de los rayos cósmicos.
Por supuesto, como comenta Gastón y sugiere de forma independiente Isabel, para encontrar estas violaciones sería necesario que fuésemos capaces de simular estos fenómenos con mayor precisión que los «dioses» que simulan en el universo en el que nos encontramos. Lo más razonable es que estos «dioses» (posthumanos los llamaría Bostrom) simulen de forma tan perfecta que impida que los humanos podamos observar estos «errores» de la simulación debido a su estructura discreta.
Héctor comenta un segundo artículo, Tom Campbell, Houman Owhadi, …, David Watkinson, «On Testing the Simulation Theory,» International Journal of Quantum Foundations 3: 78-99 (17 Jun 2017), web: https://ijqf.org/archives/4105, que propone detectar la simulación del universo usando el papel del observador en física cuántica. Una cierta visión solipcista (solo sé que yo existo y el universo a mi alrededor puede ser una simulación); así quien simule el universo puede usar técnicas de optimización usadas en los videojuegos para reducir el coste computacional, simulando solo lo necesario para engañar al observador consciente (o los pocos observadores conscientes) que vive en la simulación. Se podría detectar esta simulación gracias al estudio del colapso de la función de onda (que, por cierto, no existe ni en la interpretación de Copenhague, ni en la de Everett) en ciertos experimentos cuánticos.
La mecánica cuántica se puede interpretar como resultado de una simulación clásica no local basada en estadística bayesiana. La simulación solo calcula la información que es necesaria en cada momento, lo que puede llevar a inconsistencias detectables con experimentos: (1) para determinar el instante en el que se renderiza la realidad virtual, y (2) para detectar discontinuidades en la realidad asociadas a la simulación del universo. En el caso (1) se propone estudiar el instante del colapso de la función de onda, para comprobar que no coincide con el instante en el que el aparato de medida concluye la medida, sino con un instante asociado al paso de tiempo de la realidad virtual. En concreto se propone un experimento cuántico de borrado con elección retardada (ilustrado en la figura de Investigación y Ciencia, febrero 2004) con dos fotones entrelazados.
Héctor nos explica muy bien cómo funciona este experimento. Se crean dos fotones entrelazados usando un cristal óptico no lineal (BBO). Un fotón activará el contador de coincidencias, vía el impacto en la pantalla D0. El otro fotón se usa para determinar la información del camino seguido, que puede ser borrada, usando los D1, D2, D3 y D4. La detección simultánea de D0 y Di, indica si es D1 o D2 (R₀₁ o R₀₂), que hay patrón de interferencia y la información del camino se ha borrado, y si es D3 o D4 (R₀₃ o R₀₄), que no hay patrón de interferencia y se pasó por la rendija 1 (D3) o 2 (D4). La idea es ejecutar el experimento, pero sin que ningún observador sepa el resultado (almacenando la información en pendrives, que se guardan y algunos de los cuales es destruido). La propuesta es que la simulación puede cometer errores en la simulación, por la dificultad que le hemos puesto con el manejo de pendrives (o cualquier otra cosa que se nos ocurra).
Le pido perdón a Héctor porque en el podcast le corrijo y digo que el patrón solo se observa el 25 % de las veces, en lugar del 50 % de las veces, como él afirmó. Por el cansancio me confundí con otro experimento cuántico. Este GIF animado de la wikipedia ilustra lo que decía Héctor (el artículo original con este experimento clásico es Yoon-Ho Kim, Rong Yu, …, Marlan O. Scully, «Delayed “Choice” Quantum Eraser,» Phys. Rev. Lett. 84: 1-5 (03 Jan 2000), doi: https://doi.org/10.1103/PhysRevLett.84.1, arXiv:quant-ph/9903047 (13 Mar 1999)).
En el artículo de Campbell y sus colegas lo que se propone es hackear a los simuladores del universo, asumiendo que usan técnicas de optimización similares a las usadas en videojuegos. En dicho caso se observarían en este tipo de experimentos una serie de errores provocados por el hackeo. Lo cierto es que en este tipo de experimentos hay una gran cantidad de errores, así que diferenciarlos de los debidos al hackeo no parece nada fácil. En cualquier caso, como comenta Héctor, lo que se pretende es provocar algo parecido a un deja vu de la película Matrix. Por cierto, en el artículo se proponen otros experimentos similares, un poco más complicados, que pretenden detectar de forma similar la realidad virtual en la que podríamos estar viviendo.
Finalmente, me gustaría destacar que se ha propuesto una interpretación de la mecánica cuántica basada en la hipótesis de la simulación. En ella, que las propiedades cuánticas no están determinadas (como destaca Gastón en el podcast) se interpreta en el mismo sentido en el que las propiedades de los objetos en un videojuego no están determinadas, son solo pura información. Para los interesados, el artículo es Klee Irwin, Marcelo Amaral, David Chester, «The Self-Simulation Hypothesis Interpretation of Quantum Mechanics,» Entropy 22: 247 (2020), doi: https://doi.org/10.3390/e22020247.
El podcast ha durado demasiado, así que hoy no hay Señales de los Oyentes.
En la parte del final se mezclan los conceptos Francis, igual puedes aclararlo.
Entendemos que vivimos la realidad real (territorio) y de dicha realidad real hacemos un mapa, la realidad física, siendo entonces la realidad física una versión empírica de la realidad real. Entiendo que la realidad física es virtual en cualquier caso, ¿quiere decir el artículo que también la realidad real sería virtual? (Sin entrar en los problemas de falsabilidad)
P, el artículo que comenta Héctor no discute la diferencia entre realidad y realidad física, diferencia que no tiene sentido en su contexto. El artículo asume que la realidad (a secas) es una realidad simulada. La realidad física, es decir, la realidad según el paradigma actual de la física, no es una realidad simulada. Por ello, en mi opinión, no tiene sentido incorporar esta diferencia en la discusión del artículo.
«La realidad física, es decir, la realidad según el paradigma actual de la física, no es una realidad simulada.»
Las simulaciones numéricas describen aspectos de la realidad física que versan sobre la realidad, desde nuestro punto de vista. Son simulaciones y describen cierta realidad física, por tanto, la realidad física es simulable, ¿no?.
Entiendo que la realidad (a secas) es lo complicado de entender como una simulación, los autores tienen que estira demasiado el concepto simulación para decir eso.
P, las simulaciones describen una aproximación discreta de la realidad física; no se puede afirmar que la realidad física sea simulable, ni siquiera que sea computable. Solo se puede decir que una aproximación computable a la realidad física es simulable.
Por cierto y al margen, me parece muy adulto el punto de Gastón, entender que la interpretación de muchos mundos cumple la navaja de Ockham ya que es la solución más sencilla a un problema muy complejo. Me gustaría ver que un día entienden igual los beneficios de la cosmología cíclica al ser el mismo caso.
¿La cosmología cíclica es esperpéntica?
-lo es…
¿La cosmología cíclica soluciona el importantísimo problema de pérdida de información?
-lo soluciona sin despeinarse
¿La cosmología cíclica puede eventualmente describir el mismo universo que la cosmología estandar?
-sí, puede
No tendría que haber mucho más que pensar, los físicos parecen tener más ganas de pelearse con la pérdida de información que de solucionar el problema.
P, la cosmología cíclica tiene muchos problemas de consistencia interna y, además, lo siento, no existe ningún modelo concreto que describa el universo como la cosmología estándar (como afirmas en tu comentario). Otra cosa diferente es la idea filosófica de la cosmología cíclica, la posible existencia de un futuro modelo que resuelva sus problemas de consistencia y que describa nuestro universo tan bien como la cosmología estándar. Pero hasta ahora dicho modelo no existe (si existiera, sería aceptado por todos los cosmólogos sin ningún problema).
Francis, ¿por qué comentas que no describen el mismo universo?
La cosmología estándar describe la evolución de un único universo mientras que ccc describe una secuencia de ellos, pero parten de describir la misma cosmología. Cambia el hecho de aplicar rescalado conforme simplemente.
P, admito que me encantan los modelos cíclicos porque son muy resolutivos a nivel filosófico (¡y la cosmología es mi débil ejeje!). Estaría dispuesto a apostar que alguno de ellos podrá describir nuestro universo algún día. Aun así, es una conjetura que no puedo demostrar: es un convencimiento filosófico y me encanta juguetear y estar al tanto del desarrollo de tales modelos, pero hay que admitir que postulan un sinfín de problemas, según nuestro entendimiento actual… y a mí tampoco me resulta muy elegante negar que la función de onda nunca colapse cuando en el mundo macroscópico actual es evidente que colapsa en algún punto/momento. Además, las ejm… observaciones de Sean Carroll esconden el elefante en la habitación: si la función de onda nunca colapsa, los sistemas tendrían que seguir en estado de unitariedad a nivel macroscópico, y ser totalmente revertibles. ¿Cómo explicamos pues la flecha del tiempo y la irreversibilidad de los eventos que experimentamos? Pues con un entrelazamiento y una decoherencia del sistema progresivo. Pues mira: has sacado el colapso de la función de onda de la puerta y ha entrado la decoherencia cuántica por la ventana. Entonces, exactamente, ¿en qué consiste la ventaja de la interpretación de Muchos Mundos? No sé, Rick…
P, afirmas que existen modelos cíclicos que describen bien la cosmología de precisión, pero ¿cuáles son esos modelos? No me consta que existan. Las ideas tipo reescalado conforme de Penrose están refutadas por las observaciones (aparte de que no existe ningún modelo serio que sustente estas ideas de Penrose). Penrose ha publicado muchas especulaciones en libros de (supuesta) divulgación, pero son especulaciones que no se sostienen.
Penrose no busca entrar en conflicto con sus compañeros respecto de observaciones y experimentos, su propuesta toma el que sea el modelo cosmológico de consenso y aplica la operación de reescalado sobre ese modelo, por ello tiene tanta consistencia como la tenga el modelo cosmológico que tome de base. (Discrepando en los inicios y finales, claro)
Es cierto que el producto de esa operación no tiene sentido físico, tampoco lo tiene muchos mundos, pero la idea es dar una solución sencilla al problema de pérdida de informacion.
Entiendo que no lleguemos a un acuerdo y entiendo que tienes razón Francis, nadie ha construido todavía el modelo concreto, pero la idea sigue partiendo de tomar el que sea el modelo cosmológico estándar.
Igual estoy abusando de tu paciencia con estos temas, gracias por la molestia Francis.
A ver si lo he entendido bien, porque recientemente he vuelto a leerme un poco de «The Road to Reality» y también de «Ciclos del Tiempo»… él dice, vamos a considerar una variedad minkowskiana cuadridimensional (M4) asintóticamente plana. Según la teoría de los twistores, que defiende en «The Road to Reality», los rayos de luz (geodésicas nulas) en esa variedad M4 en un universo en estado de muerte térmica y dominado por pura radiación son mapeables en una esfera de Riemann (proyección compleja CP1) hacia el polo norte que es un punto que representa las proyecciones hacia el infinito del plano complejo. Ese punto es una singularidad. Entonces, dice Penrose, según los twistores un universo plano dominado por rayos de luz que siguen geodésicas nulas tan separados entre sí que ni siquiera perciben la curvatura de la energía de sus fotones vecinos son mapeables hacia un único punto. Esto es verdadero solo en la teoría de twistores, ya que en otros contextos más aceptados tenemos la idea de que los rayos de luz siguen y siguen hasta el infinito nulo hacia una esfera bidimensional S2 donde metafóricamente «impactarían» esos rayos de luz siguiendo las líneas geodésicas. Esta esfera «celeste» de las simetrías Bondi-Metzner-Van der Burgh y Sachs (BMS) tendría un sinfín de cargas conservadas y de simetrías continuas, superrotaciones y supertranslaciones, e incluido las memorias gravitacionales debidas al tensor de Weyl y la entropía, supuestamente. Esto es un escenario totalmente diferente del descrito por la teoría de los twistores y por la CCC de Penrose. Espero haberlo entendido medianamente bien, jajaja en caso contrario me disculpo con antelación y estoy todo oídos. ¡Un saludo! 🙂
Thomas, el plano es mapeable en una esfera mediante una proyección estereográfica, con una singularidad en el norte, pero esta propiedad matemática no significa en ningún caso que la física en un plano sea mapeable a la física en una esfera. Penrose dice lo mismo para M4 y CP1, luego la conclusión debe ser la misma, la física en M4 no es mapeable a la física en CP1. Con twistors o sin twistors, no es mapeable. Salvo que se demuestre lo contrario en este caso particular, pero Penrose no demuestra nada al respecto (ni en sus libros, ni en sus artículos, aunque quizás lo haga en sus sueños).
Un rato muy interesante y entretenido, como siempre. Gracias.
Se me ocurre algunas preguntas sobre el agua en Marte. Supongamos que está donde dice este estudio. «Gran parte del agua marciana no escapó al espacio, sino que se filtró hacia la corteza.» ¿Se filtró hacia la corteza o ya estaba allí y es el agua que queda después de que el agua en superficie escapara al espacio?. Que se filtrara el agua a la corteza, ¿es una consecuencia con la erosión de la atmósfera?. O al contrario, ¿contribuyó que los océanos se filtraran a la corteza a la erosión de la atmósfera?. Si el agua actual es la que había en superficie, ¿podría volver a subir?. Ya es líquida. ¿Es cuestión de calor?. Por ejemplo, si una aproximación estelar acercara Marte al Sol. O cuando nuestra estrella sea una gigante roja.
Sobre la simulación. ¿Performance científica moderna de los relatos antiguos sobre los dioses del olimpo manejando el mundo ?
Sí, Briko, como bien dice Héctor, el simulismo tiene mucho de misticismo y mitología postmoderna.
En realidad supongo que Bostrom se queda corto, ya que las implicaciones de su trilema podrian ser todavia radicales y asi proceder a una reductio ad absurdum de toda su propuesta: a nivel bayesiano, las probabilidades que *cada uno de nosotros* este viviendo en su propria simulacion del universo donde todos los demas son NPC (non-playable character de los videojuegos) se dispararian. Esto hace que sea casi inevitable pensar que la simulacion sean pensadas a nuestro alrededor, lo cual es totalmente gratuito y sin justificacion alguna. Si bien ser subproductos de una simulacion generica podria ser algo relativamente aceptable, ser protagonistas de una simulacion monadologica en el sentido de Leibnitz es una afirmacion que sabe a idealismo de Berkeley.
Hola, “Los dioses pueden engañar a todas las personas una gran parte del tiempo
y a algunas personas todo el tiempo, pero no pueden engañar a
todas las personas todo el tiempo”.
No importa quien la pronuncio primero, ni prisa
pero tenía más razón que un santo.
Un saludo y gracias,
Buenas,si somos una simulación y conseguimos encontrar un error en ella,lo más seguro es que nos eliminen en la siguiente actualización,nadie quiere que un npc te fastidie la partida…XD
Una pregunta creo que bastante ingenua sobre la prueba de la rejilla¿Si después del primer observador hubiera un segundo,este podría saber que el rayo ya fue observado?
La duda me surge por si sería posible saber que la luz que llega de una estrella pueda haber sido observada antes en su viaje hasta aqui,una especie de detector de «observadores».
Muchísimas gracias ,se me hace poco un programa a la semana…
Hola, como seguidor y admirador estoy contento de la cantidad de artículos de este verano.
Al estar de vacaciones juego con mi nieto, pero como es tan pequeño y apenas mantiene su
cabeza solo le hago tonterías, espero que sea un poco mayor para jugar al escondite.
Con los dioses hay que tener cuidado, depende con quien te encuentres y a que quiera jugar,
y es sorprendente que quien mejor vista tiene no vea nada.
Un saludo y gracias.