La entrada “¿Por qué el cielo es negro por la noche?,” de Martín Cagliani, 10 Septiembre 2007 , afirma que “la respuesta está en la edad del Universo. El Universo tiene 15 mil millones de años de edad, tiempo insuficiente para que la luz viaje hasta nosotros desde estrellas u objetos a distancias mayores a 12 o 13 mil millones de años.”

Esta entrada me ha hecho recordar la así llamada Paradoja de Olbers, que leí hace muchos años en el libro “Cosmología,” de Hermann Bondi, Labor, 1977. En la pequeña biblioteca pública de mi ciudad, siendo yo un adolescente, era el único libro sobre cosmología. Bondi, junto con Gold (siguiendo ideas previas de Sir Fred Hoyle), habían propuesto la teoría del Estado Estacionario, buena opositora de la teoría del Big Bang (llamado así jocosamente por Hoyle), según la cual el universo era eterno, no tenía origen en el tiempo, y se encontraba en expansión “aparente” (la observada por Hubble) porque se creaba materia continuamente (en agujeros blancos). Bondi comparaba en su libro dicha teoría con el Big Bang y no encontraba diferencias importantes (el libro original que se tradujo al español, la segunda edición en inglés, es de 1960). El descubrimiento de la radiación de fondo cósmico de microondas en 1965, de difícil sino imposible explicación en la teoría del Estado Estacionario, fue la “navaja de Occam” que le cortó el cuello a la teoría del Estado Estacionario.

Bondi, que fue quien le puso el nombre de “Paradoja de Olbers” a la pregunta “¿por qué el cielo es negro por la noche?”, la contesta “correctamente” en su libro, utilizando la teoría del Estado Estacionario (o la del Big Bang, si prefieres, su respuesta es compatible con ambas). No es necesario suponer que el universo tiene una edad finita. La respuesta correcta es mucho más sencilla y mucho más antigua. Recapitulemos un poco.

Antes de nada, el mayor especialista mundial en este tema (sobre todo en su historia, complicada donde las haya) es Edward R. Harrison (fallecido el 29 de enero de 2007 ), quien ha llegado a publicar hasta en la revista Science sobre el tema (“The Dark Night-Sky Riddle: A “Paradox” That Resisted Solution,” Science, 226, 941-945, 1984 ), cuyas ideas están magistralmente resumidas en su artículo en American Journal of Physics, considerado uno de los 6 memorables de 1977 (“The dark night sky paradox,” Am. J. Phys. 45, 119-124, 1977 ), siendo autor del famoso libro “Darkness at Night: A Riddle of the Universe,” Harvard University Press, october 30, 1987 . Un resumen bastante agradable de leer de la historia de la pregunta lo podéis encontrar también en Stanley L. Jaki, “Olbers’, Halley’s, or Whose Paradox?,” Am. J. Phys. 35, 200-210, 1967 , quien también escribió un libro al respecto “The Paradox of Olbers’ Paradox,” Stanley L. Jaki, Herder and Herder, New York, 1969 , cuyo énfasis es “la falta de memoria” de los científicos; según él, Bondi no se leyó el artículo de Olbers, que citaba a Halley, ni Olbers a Halley, que citaba a Kepler; según Jaki, muchos científicos “olvidan fácilmente” el pasado. La verdad es que hoy en día es my habitual, pero eso es otra historia. Por cierto, Jaki, teólogo y físico, ha dedicado su vida a tratar de buscar a Dios en la cosmología, explicaciones físicas para los milagros, o los fundamentos físicos del alma. Pero volvamos a Harrison y no perdamos el norte.

La primera aparición escrita de la paradoja, de la que se tenga constancia, es de Thomas Digges (1576), siendo más tarde descrita por Johannes Kepler (1610), Edmund Halley (1721), quien la expuso en público delante de Sir Isaac Newton (quien no preguntó ni dijo nada, las malas lenguas dicen que estaba durmiendo durante la conferencia). Estos autores la usaron como argumento para “demostrar” que el universo no podía ser infinito (el cielo nocturno no sería oscuro). Wilhelm Olbers (1823) ofreció un argumento alternativo, el universo está repleto de un gas que “absorbe” la luz de las estrellas lejanas, recuperando la idea “agradable” de un universo infinito y eterno. Desde entonces muchos otros se han cuestionado el problema y ofrecido diferentes respuestas. Según Harrison, Lord Kelvin (1901) fue el primero en dar con la respuesta correcta, que ya el mísmisimo Edgar Allan Poe (1845) anticipó en sus especulaciones cosmológicas.

La respuesta correcta: el universo no tiene energía suficiente para “encender” el cielo nocturno.

El espacio (las distancias) entre las estrellas (o las galaxias) es tan grande que no pueden rellenar estos espacios con una radiación brillante que ilumine el cielo nocturno. Que el universo sea finito en extensión (o no) o que tenga una vida finita (o no) no son relevantes para la respuesta correcta. Eso sí, es importante que la velocidad de la luz sea finita, en caso contrario no se podría explicar la paradoja en un universo infinito y eterno, y habría que recurrir a un universo donde las estrellas tienen edad finita o el propio universo tiene edad finita (como el nuestro).

Para los interesados en una “agradable” disgresión con poca matemática les recomiendo el artículo de E.R. Harrison, “The dark night sky paradox,” Am. J. Phys. 45, 119-124, 1977 , cuya matemática es suficientemente clara, de todas formas, si queréis usar estas ideas en clase para vuestros alumnos (si sois profesores de bachillerato o universidad) os recomiendo el artículo H. Knutsen, “Darkness at night,” European Journal of Physics, 18, 295-302, 1997 , que rellena los “detalles” del artículo anterior de Harrison.

“Los árboles no dejan ver el bosque,” los troncos de los árboles bloquean la visión de otros árboles que se encuentran detrás. Si A es el área (media) de bosque que contiene un sólo árbol y w es el diámetro (anchura) media del tronco de un arból, entonces el árbol más lejano que podemos ver se encuentra a una distancia media de A/w, siendo el número de árboles visibles (que cubren todo el campo visual) igual a pi*A/w². Por ejemplo, si la distancia media entre árboles es de 10 m. entonces A=100 m² y si w=0.5 m, el árbol más lejano estará a unos 200 m. y el número de árboles visibles será de 1256.

Las estrellas, como los troncos de los árboles, tienen un tamaño medio y bloquen la vista de las estrellas más lejanas. Sea V el volúmen (medio) que contiene una sola estrella y sea a el área (promedio) de la sección transversal de una estrella, entonces la estrella visible más lejana se encuentra a una distancia V/a, y el número de estrellas visibles (que cubren todo el cielo visible) es de 4*pi*V²/(3*a³). Incluso en un universo infinito que contenga un número infinito de estrellas, sólo podremos ver un número finito de ellas desde un punto dado.

Suponiendo que todas las estrellas son similares al Sol (temperatura superficial media de 5000 ºK) y que la densidad cósmica de materia es un átomo de hidrógeno por métro cúbico (según las ideas cosmológicas actuales), la estrella más lejana visible se encontraría a 10²³ años luz y el número de estrellas visibles que cubriría todo el cielo sería de 1060. Sin embargo, la vida de una estrella es mucho menor a 10²³ años, de hecho, del orden de 1010 años, con lo que la energía de radiación (luminosa) de todas las estrellas visibles es del orden de 10-13 veces la necesaria para iluminar el cielo, por eso es ocuro (prácticamente negro). Un cálculo más detallado nos da 2.34*10-13 (“Darkness at night“).

El cielo nocturno no es oscuro porque el universo sea aún “joven”, incluso en un universo mucho “más viejo” aún lo sería. De hecho, en un universo con una densidad de materia mayor que el nuestro (incluso con una vida finita, Big Bang), si ésta es suficientemente grande, podríamos tener un cielo nocturno iluminado.

rostro de vos

Tengo una soledad tan concurrida tan llena de nostalgias y de rostros de vos de adioses hace tiempo y besos bienvenidos de primeras de cambio y de último vagón

tengo una soledad tan concurrida que puedo organizarla como una procesión por colores tamaños y promesas por época por tacto y por sabor

sin un temblor de más me abrazo a tus ausencias que asisten y me asisten con mi rostro de vos

estoy lleno de sombras de noches y deseos de risas y de alguna maldición

mis huéspedes concurren concurren como sueños con sus rencores nuevos su falta de candor yo les pongo una escoba tras la puerta porque quiero estar solo con mi rostro de vos

pero el rostro de vos mira a otra parte con sus ojos de amor que ya no aman como víveres que buscan a su hambre miran y miran y apagan mi jornada

las paredes se van queda la noche las nostalgias se van no queda nada ya mi rostro de vos cierra los ojos

y es una soledad tan desolada.

Mario Benedetti

Dibujo20090912_cover_book_dios_esta_en_el_cerebroLo confieso, a veces leo libros siguiendo las recomendaciones de revistas. MUY INTERESANTE recomendaba “Dios está en el cerebro. Una interpretación científica de Dios y la espiritualidad humana” de Matthew Alper, Granica, mayo 2008.

El libro se lee fácil y puede recomendarse como lectura veraniega. En los capítulos 1 y 2 el autor busca convencernos de su necesidad de hacer una carrera científica (en realidad estudió Filosofía) para tratar de comprender la esencia detrás del concepto Dios, o sea, a Dios.

El capítulo 3 es una historia del universo desde el Big Bang hasta la aparición del hombre sobre la Tierra, que deja mucho que desear. Me parece que se ha visto la serie documental Cosmos de Carl Sagan, la primera edición, y ha copiado de allí todo lo que presenta. En casi 30 años han cambiado muchísimas cosas y me hubiera gustado que el autor estuviera un poco más actualizado al respecto.

El capítulo 4 se centra sobre Kant (yo hubiera trabajado más este capítulo citando también a Hegel) y el 5 sobre “Dios como palabra”. Ambos están muy flojos, pero supongo que el autor (siendo filósofo) no quiere escribir un libro sobre filosofía.

En el capítulo 6 empieza el “grano” del libro. Hay patrones de conducta universales en las diferentes cultura humanas. El autor expone su hipótesis de que dichos patrones de conducta están determinados por nuestros genes (como llorar cuando uno está triste). El capítulo 7 tratan sobre las conductas universales de la creencia en la “espiritualidad” y de la práctica de ritos religiosos. Cita a Freud y sobre todo a Jung, con su inconsciente colectivo, como aval para sus ideas.

¿Por qué nuestro cerebro tiene partes dedicadas a la espiritualidad y a la religiosidad? En el capítulo 7 el autor trata de dar las razones para ello. Básicamente “el miedo a la muerte”. El ser humano es el único animal que sabe que va a morir (todos los animales le tienen miedo a la muerte). ¿Cómo vivir con dicho miedo? La evolución a generado una “función espiritual” en nuestro cerebro que nos hace concebir que nuestro “yo” es eterno, inmortal y que nos conforta dicho miedo. El autor se recrea en el capítulo 8 en dichas ideas y en la importancia del “ego” en la percepción humana del mundo.

¿Alguna prueba empírica de que Dios está en nuestro cerebro? Ciertas experiencias “místicas” se pueden provocar mediante drogas (cap. 10); la religiosidad en gemelos que se han criado separados respecto a mellizos en las mismas circunstancias le hacen aludir a un “gen” de la religiosidad (cap. 11); las propiedades curativas de la oración sobre todo en enfermedades psicosomáticas ampliamente contrastadas en la literatura médica (cap. 12); los beneficios del ritual de la conversión religiosa, que salva a muchos “desamparados” que en otro caso deberían recurirr a un psicólogo (cap. 13); las experiencias cercanas a la muerte, que se pueden provocar con drogas (cap. 15); y la glosolalia, “hablar en lenguas desconocidas” (cap. 16), este último muy flojo. Todos estos datos, según el autor, ratifican su hipótesis “neuroteológica” o “bioteológica”.

Si la religiosidad es una necesidad humana que tenemos imbricada en nuestro genes, ¿por qué hay ateos? Igual que hay personas con mejores actitudes para la música que otras, también hay personas con mejores actitudes para la religiosidad o la espiritualidad (cap. 15). En la mayoría de los países de la OCDE el ateismo y el agnosticismo son muy numerosos, porcentajes superiores al 30% de la población, sin embargo, EEUU es la excepción que confirma la regla (más del 90% de la población se confiesa creyente en Dios). El autor trata de explicarlo aludiendo a que los inmigrantes originales buscaban en América la “libertad religiosa” que se les negaba en Europa, luego tenían el “gen de la religosidad” especialmente “desarrollado” (cap. 17).

En un libro escrito por un filósofo sobre Dios no puede faltar un capítulo sobre “el bien y el mal” (cap. 18). El autor afirma que en su opinión hay regiones en el cerebro para lo religioso, lo espiritual y lo moral, separadas y en diferente grado de expresión en cada individuo. La componente moral es muy importante para mantener la cohesión de grupo en un animal tan social como el humano.

Los tres últimos capítulos (19-21) se dedican al siguiente problema: bien, Dios es un producto de nuestro cerebro, de nuestra evolución por selección natural como seres inteligentes y sociales, ¿y qué? ¿pasa algo? ¿afecta ello a quienes tienen fé en su existencia? Pues no. El autor considera que las sociedades modernas deberían aceptar como un hecho la necesidad humana de la religión y lo espiritual y que deberían ponerse de acuerdo todos los credos religiosos para desarrollar un corpus común que evite las guerras entre religiones (alude entre otros a la tragedia del 11 S y a los fundamentalistas de diferentes bandos). Todo esto me suena a la “cienciología”.

El irriosorio apéndice “Experimentos que podrían demostrar la existencia de una función espiritual” es un pésimo colofón para este libro. Que lo dicho, dejarse leer, se deja leer.

Yo me considero “humanista racional” (que el autor confronta a agnósticos y ateos) y las ideas expresadas en el libro no me desagradan, pero en el presente estado de la ciencia son sólo pseudociencia. Aún así, prefiero las ideas de Alper a las que sugieren el “carnicero” von Daniken y sus seguidores sobre unos extraterrestres que convirtieron a los monos en hombres para usarlos de esclavos, se les escaparon de las manos y acabamos surgiendo nosotros (el único animal de inteligencia probada (por él mismo) sobre la Tierra).

Si te parece curiosa esta entrada, te recomiendo la lectura del libro “Dios está en el cerebro. Una interpretación [pseudo]científica de Dios y la espiritualidad humana.”

La entrada “Si las abejas desaparecen, también el hombre, lo dijo Einstein, ¿o no?,” de Martín Cagliani en el interesante blog Espacio Ciencia, me ha hecho buscar más datos sobre la frase. Obviamente, es imposible que Einstein hiciera dicha afirmación. La noticia “Albert Einstein, Ecologist?” del Gelf Magazine parece bastante instructiva al respecto. Afirma que Roni Grosz, “curator” de los Albert Einstein Archives afirma que “No hay prueba de que Einstein lo ha dicho o escrito alguna vez.” Pero, ¿realmente Grosz lo ha dicho? ¿Hay pruebas de que lo haya dicho? Doble problema.

En el foro “Einstein on Bees,” se afirma que la frase aparece por primera vez en enero de 1994, de la mano de Paul Ames, en un artículo para Associated Press sobre las protestas de los apicultores en una conferencia de los ministros de agricultura de la Unión Europea. Según Gelf Magazine Ames afirma que leyó dicha frase en un panfleto de los apicultores franceses (National Union for French Apiculture, UNAF). ¿Alguien lo ha visto o lo ha leído? Nadie. Pero creo que no debemos de dudar del Sr. Ames.

Einstein es un icono, el icono de la ciencia en el s. XX. ¿Por qué si algo lo ha dicho Einstein es más cierto que si lo digo yo o tú? Nadie lo sabe. El mito de Einstein se hizo fundamentalmente en EEUU, tras la mediática llegada de Einstein al reciente Instituto de Estudios Avanzados de Princeton. Sobre la curiosa y apasionante historia de dicha institución os recomiendo el libro “¿Quién ocupó el despacho de Einstein?”

Durante sus años de Princeton, la llegada de periodistas “buscando la noticia” al despacho de Einstein era tan habitual, cual “mosca cojonera”, que Einstein llegó a la conclusión que lo mejor era preparar ciertas frases a modo de titular con objeto de quitarse al periodista cuanto antes, ya que la mayoría lo único que quería era una frase así para construir su “noticia”. Prácticamente todas las semanas había una nueva frase dicha por Einstein, la mayoría sacadas de contexto, muchas incluso sin contexto alguno. Meras frases “lapidarias” que el periodista de turno interpretaba a su libre albedrío.

Como decía Miss Helen Dukas, secretaria personal de Einstein desde 1928 hasta su muerte en Princeton, sobre estas idas y venidas de periodistas: “Thank God, most of it can go straight into the wastepaper basket” (gracias a Dios, la mayoría (de la basofia escrita por los periodistas a partir de lo afirmado por el propio Einstein) puede ir directamente a la papelera). Citado en “Einstein. The Life and Times,” pag. 616, de Ronald W. Clark, biografía poco científica, nada que ver con la de Abraham Pais, pero que gustará más a los aficionados a las biografías “de toda la vida”.

El alma de un físico, después de varias entradas sobre cambio climático, tiene siempre que retornar a la mecánica cuántica, a qué si no.

¿Cuál es la diferencia entre el experimento de interferencia de Young para demostrar las propiedades ondulatorias de la luz y el experimento de la doble rendija para demostrar la dualidad onda-partícula en mecánica cuántica? Para el inexperto, ambos experimentos pueden parecer la misma cosa, pero no tienen nada que ver. En el experimento de Young la interferencia es debida al campo eléctromagnético y en el experimento cuántico debida a la función de onda de cada fotón. ¿Qué relación hay entre ambos conceptos? El artículo de E. C. G. Sudarshan and Tony Rothman, “The two-slit interferometer reexamined,” American Journal of Physics, Volume 59, Issue 7, pp. 592-595, July 1991.

El campo electromagnético asocidado a un pulso de luz corresponde al estado de superposición de muchos estados con un número variable de fotones. ¿Qué es un fotón? En electrodinámica cuántica, la teoría cuántica del campo electromagnético, se utiliza la llamada segunda cuantización, en la que se utilizan operadores de creación y destrucción de estados con un único fotón con una energía dada. Hay un estado vacío (sin fotones) y el estado con un único fotón es obtenido aplicando un operador de creación de un fotón a dicho estado vacío. ¿Cuál es el campo eléctrico asociado a dicho fotón? Este pregunta no tiene una repuesta bien definida en mecánica cuántica relativista. Los campos eléctricos son representaciones semiclásicas del campo electromagnético de un gran número de fotones. No están asociados a un único fotón. ¿Por qué? Porque la función de onda del estado con un solo fotón no es autofunción del operador de campo eléctrico, que cumple con una ecuación de tipo Schrödinger. Tampoco es autofunción del operador momento (no tiene frecuencia bien definida) ni del operador posición (no tiene posición bien definida).

¿Qué es lo que interfiere en un experimento cuántico de doble rendija con fotones “individuales”? Estados coherentes del campo electromagnético, que no son autofunciones ni del campo eléctrico (E) ni del campo magnético (B) indidualmente, sino de un operador complejo E+i*B. El patrón de interferencia no es debido a la interferencia de fotones individuales, sino a la interferencia entre estados coherentes. Estos estados coherentes se propagan como ondas “clásicas” e interfieren como en el experimento de Young.

Esto puede parecer sorprendente ya que muchos afirman que “cada fotón interfiere sólo consigo mismo, no hay interferencia entre dos fotones diferentes”. Esta frase no tiene sentido en sí misma. Si realizamos el experimento con un sólo fotón y nada más, no veremos ningún patrón de interferencia. La interferencia requiere estados coherentes.

¿Qué pasa con el patrón de interferencia si varíamos la distancia (d) entre las dos rendijas y la placa fotográfia que recibe los fotones? Para una distancia pequeña, valor pequeño de la distancia d, observamos dos manchas localizadas en la posición de cada rendija. El patrón de interferencia, aunque “existe”, es inapreciable. Para una gran distancia, obtenemos claramente el patrón de interferencia observado en los libros de texto. ¿Qué pasa para distancias intermedias? Observamos como cada pico asociado a cada rendija se ensancha y reduce su amplitud, mientras el patrón de interferencia empieza a aparecer “visible”.

François Bardou, “Transition between particle behavior and wave behavior,” American Journal of Physics, Volume 59, Issue 5, pp. 458-461, May 1991, ha introducido una función de la distancia que denomina “función de interpretación” (IF) cuyo valor para distancias cortas es prácticamente la unidad (interpretación como “partícula clásica”) y para grandes distancias es prácticamente cero (interpretación como “onda clásica”). ¿Cómo interpretamos el resultado para valores intermedios de IF? Bardou propone que dichos estados son “intermedios” entre partícula y onda. ¿Para distancias cortas podemos decir a través de qué rendija ha pasado un único fotón? No. Sólo obervamos que la manchas en la placa fotográfica se acumulan preferente en la posición de cada una de las rendijas, pero si una mancha está justo enfrente de una rendija no implica que corresponde a un fotón que ha “pasado” por dicha rendija. ¿Parece extraño? No, si se recuerda que lo que estamos observando es un patrón generado por estados coherentes no por estados cuánticos con un único fotón. Podemos afirmar lo que pasa con muchos fotones pero nunca con uno solo.

La mecánica cuántica es sutil aunque Einstein no juega a los dados (su cara por Eugenio Manuel).

Nuestro amigo Kondor me/nos recomendó el documental “La Gran Estafa Del Calentamiento Global” de la BBC, que yo no conocía, pero gracias a dicho enlace pude “disfrutar”. El documental nos indica que el problema del cambio climático tiene un origen no antropogénico: no son las emisiones de CO2 las responsables, sino los rayos cósmicos y la dinámica solar que afectan a la inosfera, y a través de la tropopausa, a la generación de nubes en la troposfera. Hemos sido “engañados” por el “establishment”. La radiación interestelar tanto de origen solar como extrasolar son los responsables del calentamiento de la Tierra. Según nuestro amigo Kondor, y quizás con razón, “Aquí hay gato encerrado, y personalmente huele mal.” De hecho en el documental de la BBC aparecen personajes tan importantes como el antiguo director del IPCC, quien, obviamente, es un fisico de importancia notable.

Me ha picado la curiosidad. Y eso me gusta.

Lo primero, no soy experto en cambio climático y temas relacionados (física de la atmósfera, climatología, etc.). Si a veces hablo “como si supiera” os quisiera recordar que el autor principal de este blog es “aprendiz de todo y maestro de nada”. En este blog sólo ofrezco mis “opiniones sesgadas” (recuerda que toda opinión es sesgada). Más aún, “muy sesgadas”. De hecho, no suelo hablar de los temas de investigación a los que me dedico. Estos temas me obsesionan ya lo suficiente como para tratar de evitarlos en este blog. Lo siento. De lo que más podéis aprender de mí, menos os voy a contar (lo cuento en otros foros, revistas internacionales, en inglés y para los “pocos” técnicos a los que les interesa).

dibujo20090501_atmosphere_tropopause_ozoneAún así, hablando de la tropopausa, me gustaría confesar, a mi pesar, que estudié algo NWP (predicción numérica del tiempo meteorológico) cuando visité el Department of the Geophysical Sciences de la University of Chicago, junto a los famosos The Hospitals. Como anécdota os contaré que fui el primer ocupante del despacho de Mr. Tornado (Tetsuya “Ted” Fujita), denominado así en un artículo de National Geographic en 1972. Hacía poco más de un año que había fallecido y su despacho estaba repleto de sus papeles personales. Al menos así lo observé mi primer día de trabajo en Chicago, debido a mi “curiosidad” natural (lo confieso soy un poco “cotilla”). Para mi sorpresa, el día siguiente, el despacho estaba limpio. Se habían llevado todo lo que recordara al Dr. Fujita. Me dieron la llave del despacho, del laboratorio, y del edificio. A partir de las 5:00 pm el edificio se quedaba vacío, sin embargo, yo seguía allí. Para mi sorpresa, el vigilante se pasaba por allí cada “par de horas”, yo acostumbraba a tener la puerta abierta. La primera vez me pidió la identificación (una tarjeta electrónica con foto incluida que me hicieron el primer día en menos de media hora). Las siguientes veces, el vigilante ya me conocía y comprobaba “que era yo” sutilmente “tratando de no molestar”. ¡Qué diferencia con la universidad española!

Lo dicho, de cambio climático mi conocimiento es el propio de un aficionado a la divulgación.

Lo siento, retomo el “hilo perdido”.

La posible conexión entre rayos cósmicos y cobertura nubosa fue sugerida por E.R. Ney, “Cosmic radiation and the weather,” Nature 183, pp. 451-452, 14 February 1959 , quien sugirió que la modulación debida al ciclo solar en los rayos cósmicos recibidos en Tierra estaba correlacionada con el tiempo meteorológico, aunque no detallaba la física detrás del efecto, sugería que era debido a la ionización en la ionosfera que se transmitía “de alguna manera” a la troposfera (la parte de la atmósfera en la que vivimos nosotros). Aunque dicha hipótesis nunca ha estado en el mainstream de la climatología, desde entonces se han publicado muchos artículos al respecto, especialmente en la última década (en la que la inversión en cambio climático ha crecido significativamente y, llamadme abogado del diablo, quizás muchos se han “subido al carro” en aras a recabar fondos de investigación).

¿Qué es lo que se sabe sobre dicha hipótesis actualmente? Obviamente, tiene sus defensores y sus opositores. Para estos últimos es un solamente un “mito”. Mi opinión, obviamente sesgada por lo que he leído al respecto, va en esta línea, salvo que los “hechos” demuestren lo contrario. La ciencia es así. Las opiniones no tienen valor. Por supuesto, aceptaré que “la verdad me de una bofetada” si mi opinión de inexperto es errónea.

Mi selección de lecturas. Me ha gustado el artículo de Brian H. Brown, “Short-term changes in global cloud cover and in cosmic radiation,” Journal of Atmospheric and Solar-Terrestrial Physics, Volume 70, Issue 7, Pages 1122-1131, May 2008 (que tiene la ventaja de que su preprint es gratuito aquí). Por cierto, yo he leído el artículo en la revista, supongo que el preprint dirá lo mismo, no me he molestado en comprobarlo).

En el artículo se estudia la posible contribución de los rayos cósmicos galácticos (RCG) en los mecanismos de formación de nubes. Estudian la correlación estadística entre la cobertura nubosa a baja altura y el promedio de rayos cósmicos recibidos durante 22 años en intervalos cada 3 horas (sólo en ciertas regiones de los hemisferios norte y sur de la Tierra). Su resultado es negativo: la influencia de los RCG en la nubosidad es ridícula, sólo puede explicar aproximadamente el 3% de las variaciones de la misma.

dibujo20090501_correlation_cosmic_ray_flux_orange_low_altitude_cloud_cover_blue_marsh_svensmark_2003Los europeos H. Svensmark and E. Friis-Christensen, “Variation of cosmic ray flux and global cloud coverage-a missing link in solar-climate relationships,” Journal of Atmospheric and Solar-Terrestrial Physics 59, pp. 1225-1232, 1997 , usando datos satelitales del ISCCP (International Satellite Cloud Climatology Project) durante 1983-1990 y otros datos durante el periodo 1980-1995, que compararon con datos del flujo de rayos cósmicos en dichos años, concluyeron que hay una clara correlación positiva entre la cobertura nubosa baja (por debajo de 3 km) sobre los océanos y los cambios en lso RCG. Su artículo fue muy criticado (por ejemplo, por que sólo presentaba datos sobre los océanos y no sobre tierra firme) o porque correlacionar dos series temporales no implica relación causa-efecto alguna). Por supuesto, los autores se defendieron: han propuesto una hipótesis y mientras no se demuestre lo contrario…

Los europeos extendieron su estudio hasta el año 2001 en N.D. Marsh and H. Svensmark, “Galactic cosmic ray and El Niño-Southern Oscillation trends in ISCCP-D2 low cloud properties,” Journal of Geophysical Research 108, p. 4195, 2006 . Encontraron cierta divergencia en la correlación entre RCG y cobertura nubosa, pero la atribuyeron a problemas de calibración del satélite durante los años 1994-95. Su conclusión, globalmente no hay correlación, pero la correlación local (regional) a corto plazo es “obvia”. Por supuesto, dicho artículo fue también muy criticado. Por destacar un artículo, mencionemos I.G. Usoskin et al., “Correlations between clouds at different altitudes and solar activity: fact or artifact?,” Journal of Atmospheric and Solar-Terrestrial Physics 68, pp. 2164-2172 ( 2006 ), que muestra la aparición de correlaciones espurias entre los datos de RCG y la cobertura nubosa que varían geográficamente. Estas correlaciones dificultan terriblemente la interpretación de cualquier correlación observada previamente.

Es por todo ello que la mayoría de los investigadores, como Brian H. Brown, “Short-term changes in global cloud cover and in cosmic radiation,” Journal of Atmospheric and Solar-Terrestrial Physics, Volume 70, Issue 7, Pages 1122-1131, May 2008 , tratan de buscar correlaciones locales (regionales) entre los RCG y la cobertura nubosa troposférica. Sus resultados muestran que hay una correlación positiva “pequeña” del orden del 4% en las variaciones de la nubosidad troposférica a corto plazo y del 3% en las variaciones de la nubosidad total como resultado de efectos extraterrestres (rayos cósmicos). Un análisis de correlación cruzada entre los cambios del RCG a corto plazo y los cambios en cobertura nubosa muestra una correlación positiva (p<0.05) con un retraso de unos 2 días, pero que sólo explica un 3% de dichos cambios.

Por supuesto, la interpretación de estas correlaciones no es nada fácil (como ocurre con cualquier correlación entre series temporales, ya que no es fácil deducir relaciones de causalidad entre ellas). Además, el filtrado de los datos, muy importante cuando las series temporales son “muy ruidosas” tiene una gran influencia en los resultados. El hecho de que la correlación encontrada es significativa sólo para cambios a corto plazo (entre 6 horas y 3 meses) entre la nubosidad y los RCG (pero no parece que la haya a largo plazo) nos indica que su efecto, existir existe, pero que su influencia climática, de existir, no es uno de los factores determinantes responsables de las variaciones de la cobertura nubosa (como mucho permiten explicar un 5% de dicha variación con un intervalo estadístico de confianza de p=0.06).

En resumen, en mi opinión, la opinión estándar de que el efecto de los rayos cósmicos en el cambio climático es de segundo orden (no es determinante) está bien fundamentada. Pero sólo el tiempo dirá si un inexperto como yo “acierta por casualidad” o “falla estrepitósamente”.

La fabricación de televisores de pantalla plana requiere el uso del gas trifluoruro de nitrógeno (NF3), que es un potente gas de efecto invernadero. Desafortunadamente, en el Protocolo de Kyoto de 1997 no se incluyó la regulación de sus emisiones ya que entonces sus emisiones eran extremadamente pequeñas. Ahora, que casi todo el mundo quiere un pantalla de TV plana tipo LCD y otros dispositivos portátiles, el problema del NF3 empieza a preocupar a los científicos (LCD making worse for environment than coal? ; Climate risk from flat-screen TVs ; Here’s a New Climate Change Culprit: Flat-Screen TVs ; y muchas otras).

¿Quién quiere “atacar” a los fabricantes de TV de LCD? ¿Los fabricantes de TV de plasma?

El estudio de Michael J. Prather and Juno Hsu, “NF3, the greenhouse gas missing from Kyoto,” GEOPHYSICAL RESEARCH LETTERS, VOL. 35, L12810, 2008 , nos recuerda que la vida media del NF3 en la atmósfera es de 550 años y que el número de toneladas emitidas en 2008 (valor estimado) es de 4000 (toneladas métricas), lo que, por sus efectos, equivale a una emisión de 67 millones de toneladas de CO2. El potencial como gas de invernadero del CO2 es igual a 1, el potencial del metano es de 25 y el potencial del NF3 es de 17.200 (increíble). Al menos así lo justifican ciertos estudios científicos, como J. I. Robson et al., “Revised IR spectrum, radiative efficiency and global warming potential of nitrogen trifluoride,” Geophys. Res. Lett., 33, L10817, 2006 .

¿Quién quiere “atacar” a los fabricantes de TV de LCD? ¿Los fabricantes de TV de plasma?

¿Para qué se usa el NF3 en la industria? Como nos indica en su post “Nitrogen trifluoride as an anthropogenic-greenhouse-forcing gas,” Luke Weston, July 3, 2008 , el NF3 es utilizada en la técnica de deposición química por vapor (chemical vapor deposition, CVD) en la industria de semiconductores. Es utilizado en otros procesos industriales (como ciertos tratamientos del silicio policristalino) ya que permite reemplazar a ciertos perfluorocarbonos que son gases de invernadores aún más potentes (es decir, se usa para reducir las emisiones). No hay nada específico en las pantallas planas de LCD que haga que su fabricación sea más productora de este gas que la fabricación de cualquiera otros componentes en la industria de semiconductores.

El trifluoruro de nitrógeno se utiliza para la fabricación de todos los dispositivos que contengan semiconductores (esencialmente, toda la tecnología electrónica moderna), desde el ordenador con el que lees esto, hasta tu televisor de LCD, paneles solares, o teléfonos móviles (celulares).

El trifluoruro de nitrógeno se utiliza como gas de efecto invernadero menos peligroso que otros gases de efecto invernadero, como los compuestos perfluorocarbonados. ¿Quién quiere “atacar” a los fabricantes de TV de LCD? ¿Los fabricantes de TV de plasma?

Michael E. Mann et al. “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia,” open access article, PNAS, published online september 2, 2008 . El artículo es de acceso gratuito y ánimo a todos los interesados en más detalles a leerlo con atención.Brevemente. Una reconstrucción de la temperatura superficial en el hemisferio norte durante los últimos 2000 años muestra una evidencia clara del calentamiento del clima en dicho hemisferio mostrando que los últimos 10 años han sido los más cálidos desde hace 1300 años, y quizás también desde hace 1700 años, con un intervalo estadístico de confianza superior al 95%. Los datos de temperatura se han promedidado en periodos de 40 años. Respecto al hemisferio sur, los datos no permiten extraer conclusiones. Por ello, del presente estudio no se puede extraer directamente que la Tierra en su conjunto sea más cálida.

Noticia aparecida al respecto en El Mundo, Ciencia: “La última década ha sido la más calurosa de los últimos 1.300 años“.

En un hemisferio norte más cálido, ¿habrá más huracanes (ciclones tropicales), serán más intensos y durará más la temporada? Un modelo de física elemental nos indica que las tormentas tropicales serán más intensas porque al estar más calientes los océanos transfieren más energía a las tormentas y en éstas aparecen vientos más fuertes. Sin embargo, modelos más avanzados parecían sugerir lo contrario (al menos el número de huracanes no parecía crecer). Quirin Schiermeier, “Hurricanes are getting fiercer. Global warming blamed for growth in storm intensity.” Nature, Published online 3 September 2008 , nos indica que la evidencia de que el cambio climático incrementará la intensidad de las tormentas más intensas en todo el mundo parece cada día más clara, aunque el número de tormentas no se ha incrementado. Así lo concluye un estudio que se publica hoy en Nature (James B. Elsner, James P. Kossin, and Thomas H. Jagger, “The increasing intensity of the strongest tropical cyclones,” Nature 455, 92-95, 4 September 2008 ) que confirma que desde 1981, la velocidad del viento máxima en los huracanes más intensos ha crecido. Para ello han recopilado datos de las velocidad del viento obtenidos mediante satélites.

Hay más huracanes de categorías (Saffir-Simpson) 4 y 5, con velocidades de viento máximas por encima de los 210 km/hora. Si se confirma este estudio, un incremento de 1ºC en la temperatura superficial del océano resulta en un incremento del 31% en la frecuencia anual de huracanes de categorías 4 y 5.

La noticia “Huracanes, cada vez más frecuentes e intensos debido al calentamiento global,” traducción de un artículo de Steve Connor, The Independent, puede ser de vuestro interés al respecto.

La noticia en inglés por Richard A. Kerr, “Stronger Winds A’ Blowin’,” ScienceNOW Daily News, 3 September 2008 , también es resultará interesante. Recordad que fue en Science en 2005 cuando se publicó un estudio que no encontraba relación entre el incremento de los huracanes y el cambio climático. Rectificar es de sabios.

La importancia de un titular es bien conocida (Tu blog y tu), aunque también que un titular puede desvirtuar una noticia (Un buen titular). Pongamos un ejemplo, de qué puede tratar una noticia titulada “Xenon ketchup.” Quizás ayude saber dónde se ha publicado: en el American Institute of Physics Bulletin of Physics News, Number 864 May 19, 2008, escrita por Phillip F. Schewe y Jason S. Bardi.

La noticia se refiere a un estudio realizado con el disco duro del ordenador del Transbordador Espacial Columbia, tristemente accidentado en 2003. Gracias a dicho disco duro, los científicos han estudiado cómo un material agitado puede cambiar muchísimo sus propiedades físicas. Dicho fenómeno es bien conocido en el ketchup. Si agitamos una botella, la pasta semisólida rápidamente se vuelve en un líquido bien fluido. Los investigadores de la ciencia de la cocina han estudiado como cambia su viscosidad (gracias a un reómetro) cuando es agitado, reduciéndola.

Robert Berg y sus colaboradores querían estudiar como cambia el comportamiento pseudoplástico (“adelgazamiento por corte” o “shear thinning”) de gran importancia en el procesamiento de comidas, polímeros y pinturas. Por ejemplo, el aceite del motor de un coche pierde viscosidad debido al movimiento de los componentes del motor, o la aplicación de pintura en una superficie puede ser más o menos suave en función de la brocha utilizada. Los investigadores querían estudiar este fenómeno en el gas noble xenón, que gracias a su bajo peso facilita las medidas experimentales. Pero se requiere para ello un ambiente de gravedad cero para evitar la estratificación del gas debido al campo gravitatorio terrestre. Lograron “colar” el experimento entre los estudios científicos a realizar en el Columbia. El desgraciado accidernte del Columbia destruyó el experimento. Afortunadamente, algunos datos del experimento se obtuvieron durante el ascenso del transbordador y se grabaron en el disco duro, que cayó junto al resto de las partes de la nave en una región entre Texas y Louisiana de algunos cientos de millas cuadradas.

Una empresa especializada en recuperar datos de discos duros dañados logró recobrar los datos del experimento del disco duro. Más aún, la célula central del experimento, conteniendo los átomos de xenón, se salvó milagrosamente, aunque su cubierta externa quedó completamente destruida. El xenón es un gas noble, no reacciona con otros átomos. Los investigadores querían estudiar el punto crítico de la transición entre los dos estados del xenón fluido que requieren condiciones especiales de presión y temperatura. El comportamiento pseudoplástico puede ser observado en el xenón, un gas, cuando éste se coloca en su punto crítico, igual que en el ketchup u otros fluidos que consistan en líquidos y pastas. Los resultados observados en la célula de xenón junto con los datos de los discos duros han permitido demostrar que la agitación fuerte reduce la viscosidad, confirmando un resultado teórico expuesto hace décadas entre el comportamiento pseudoplástico y la agitación (la relación de Carreau-Yasuda).

Robert Berg y sus colaboradores, cual agentes CSI (policía científica), han publicado el resultado de su experimento en el artículo Robert F. Berg, Michael R. Moldover, Minwu Yao, and Gregory A. Zimmerli, “Shear thinning near the critical point of xenon,” Physical Review E, 77, 041116 ( 2008 ).

Volviendo al tema de los titulares de las noticias. Esta noticia ha aparecido en muchos medios, por ejemplo, en las noticias científicas de la NASA, “The Physics of Whipped Cream,” en Scientific American, “Hard Drive Recovered from Columbia Shuttle Solves Physics Problem,” en la página web de la empresa que descifró el disco duro, Ontrack Data Recovery, “Data recovered from Columbia space shuttle solves physics problem,” etc.; cada fuente pone el “foco” en algo diferente. Así es la vida de un “titular.”

Málaga cuenta con la Nariz de Oro de 2007, Antonio Jesús Gutiérrez Blanco, de Trujal vinos y especialidades. Los ingenieros en enología están actualmente desarrollando narices electrónicas con objeto de sustituir o automatizar la labor de las Narices humanas. Por ejemplo, J. Lozano, T. Arroyo, J.P. Santos, J.M. Cabellos, M.C. Horrillo, “Electronic nose for wine ageing detection,” Sensors and Actuators B: Chemical, Volume 133, Issue 1, 28 July 2008, Pages 180-186, han desarrollado una nueva aplicación de las narices electrónicas (e-nose) para el reconocimiento y detección de la edad de un vino.

Han presentado dos tipos de medidas experimentales. Por un lado, de los vinos que han producido en una bodega experimental, utilizando el mismo tipo de uva, pero envejecido en diferentes tipos de barricas de roble (francés y americano) durante 0, 3, 6 y 12 meses. Por otro lado, han medido diferentes vinos producidos por la misma variedad de uva pero en diferentes bodegas que han envejecido en roble francés o americano. ¿Puede una nariz electrónica casera determinar la variedad de la uva y el tiempo de envejecimiento? Su nariz electrónica, técnicas estadísticas de análisis de componentes principales (principal component analysis, PCA) y técnicas de reconocimiento de patrones basadas en redes de neuronas artificiales estocásticas (probabilistic neural networks, PNN) ha logrado una tasa de éxito del 97% (por PCA) y del 84% (por PNN) en la detección de las diferentes etapas de envejecimiento experimentadas por los vinos estudiados.

La nariz electrónica desarrollada utilizada 16 sensores. La siguiente figura muestra la gran discriminación entre los resultados de dichos sensores en función del grado de envejicimiento del vino.

Las narices electrónicas nunca sustituirán, en mi opinión, a los sumillers. Sus descripciones en lenguaje natural son más poéticas que científicas y es esa poesía en la que no pueden competir los sistemas computacionales. Como dice nuestro amigo Antonio, «la cata es una búsqueda constante de sensaciones que se perciben, identifican y se archivan en la memoria sensorial, y cuando nos volvemos a encontrar con ella la reconocemos y le damos una comunicación escrita o verbal. Pero no tiene que ver con valoración degustativa, que es una confusión bastante habitual». Esta última es la que ofrecen las narices electrónicas.