Nuestro amigo Kondor me/nos recomendó el documental “La Gran Estafa Del Calentamiento Global” de la BBC, que yo no conocía, pero gracias a dicho enlace pude “disfrutar”. El documental nos indica que el problema del cambio climático tiene un origen no antropogénico: no son las emisiones de CO2 las responsables, sino los rayos cósmicos y la dinámica solar que afectan a la inosfera, y a través de la tropopausa, a la generación de nubes en la troposfera. Hemos sido “engañados” por el “establishment”. La radiación interestelar tanto de origen solar como extrasolar son los responsables del calentamiento de la Tierra. Según nuestro amigo Kondor, y quizás con razón, “Aquí hay gato encerrado, y personalmente huele mal.” De hecho en el documental de la BBC aparecen personajes tan importantes como el antiguo director del IPCC, quien, obviamente, es un fisico de importancia notable.

Me ha picado la curiosidad. Y eso me gusta.

Lo primero, no soy experto en cambio climático y temas relacionados (física de la atmósfera, climatología, etc.). Si a veces hablo “como si supiera” os quisiera recordar que el autor principal de este blog es “aprendiz de todo y maestro de nada”. En este blog sólo ofrezco mis “opiniones sesgadas” (recuerda que toda opinión es sesgada). Más aún, “muy sesgadas”. De hecho, no suelo hablar de los temas de investigación a los que me dedico. Estos temas me obsesionan ya lo suficiente como para tratar de evitarlos en este blog. Lo siento. De lo que más podéis aprender de mí, menos os voy a contar (lo cuento en otros foros, revistas internacionales, en inglés y para los “pocos” técnicos a los que les interesa).

dibujo20090501_atmosphere_tropopause_ozoneAún así, hablando de la tropopausa, me gustaría confesar, a mi pesar, que estudié algo NWP (predicción numérica del tiempo meteorológico) cuando visité el Department of the Geophysical Sciences de la University of Chicago, junto a los famosos The Hospitals. Como anécdota os contaré que fui el primer ocupante del despacho de Mr. Tornado (Tetsuya “Ted” Fujita), denominado así en un artículo de National Geographic en 1972. Hacía poco más de un año que había fallecido y su despacho estaba repleto de sus papeles personales. Al menos así lo observé mi primer día de trabajo en Chicago, debido a mi “curiosidad” natural (lo confieso soy un poco “cotilla”). Para mi sorpresa, el día siguiente, el despacho estaba limpio. Se habían llevado todo lo que recordara al Dr. Fujita. Me dieron la llave del despacho, del laboratorio, y del edificio. A partir de las 5:00 pm el edificio se quedaba vacío, sin embargo, yo seguía allí. Para mi sorpresa, el vigilante se pasaba por allí cada “par de horas”, yo acostumbraba a tener la puerta abierta. La primera vez me pidió la identificación (una tarjeta electrónica con foto incluida que me hicieron el primer día en menos de media hora). Las siguientes veces, el vigilante ya me conocía y comprobaba “que era yo” sutilmente “tratando de no molestar”. ¡Qué diferencia con la universidad española!

Lo dicho, de cambio climático mi conocimiento es el propio de un aficionado a la divulgación.

Lo siento, retomo el “hilo perdido”.

La posible conexión entre rayos cósmicos y cobertura nubosa fue sugerida por E.R. Ney, “Cosmic radiation and the weather,” Nature 183, pp. 451-452, 14 February 1959 , quien sugirió que la modulación debida al ciclo solar en los rayos cósmicos recibidos en Tierra estaba correlacionada con el tiempo meteorológico, aunque no detallaba la física detrás del efecto, sugería que era debido a la ionización en la ionosfera que se transmitía “de alguna manera” a la troposfera (la parte de la atmósfera en la que vivimos nosotros). Aunque dicha hipótesis nunca ha estado en el mainstream de la climatología, desde entonces se han publicado muchos artículos al respecto, especialmente en la última década (en la que la inversión en cambio climático ha crecido significativamente y, llamadme abogado del diablo, quizás muchos se han “subido al carro” en aras a recabar fondos de investigación).

¿Qué es lo que se sabe sobre dicha hipótesis actualmente? Obviamente, tiene sus defensores y sus opositores. Para estos últimos es un solamente un “mito”. Mi opinión, obviamente sesgada por lo que he leído al respecto, va en esta línea, salvo que los “hechos” demuestren lo contrario. La ciencia es así. Las opiniones no tienen valor. Por supuesto, aceptaré que “la verdad me de una bofetada” si mi opinión de inexperto es errónea.

Mi selección de lecturas. Me ha gustado el artículo de Brian H. Brown, “Short-term changes in global cloud cover and in cosmic radiation,” Journal of Atmospheric and Solar-Terrestrial Physics, Volume 70, Issue 7, Pages 1122-1131, May 2008 (que tiene la ventaja de que su preprint es gratuito aquí). Por cierto, yo he leído el artículo en la revista, supongo que el preprint dirá lo mismo, no me he molestado en comprobarlo).

En el artículo se estudia la posible contribución de los rayos cósmicos galácticos (RCG) en los mecanismos de formación de nubes. Estudian la correlación estadística entre la cobertura nubosa a baja altura y el promedio de rayos cósmicos recibidos durante 22 años en intervalos cada 3 horas (sólo en ciertas regiones de los hemisferios norte y sur de la Tierra). Su resultado es negativo: la influencia de los RCG en la nubosidad es ridícula, sólo puede explicar aproximadamente el 3% de las variaciones de la misma.

dibujo20090501_correlation_cosmic_ray_flux_orange_low_altitude_cloud_cover_blue_marsh_svensmark_2003Los europeos H. Svensmark and E. Friis-Christensen, “Variation of cosmic ray flux and global cloud coverage-a missing link in solar-climate relationships,” Journal of Atmospheric and Solar-Terrestrial Physics 59, pp. 1225-1232, 1997 , usando datos satelitales del ISCCP (International Satellite Cloud Climatology Project) durante 1983-1990 y otros datos durante el periodo 1980-1995, que compararon con datos del flujo de rayos cósmicos en dichos años, concluyeron que hay una clara correlación positiva entre la cobertura nubosa baja (por debajo de 3 km) sobre los océanos y los cambios en lso RCG. Su artículo fue muy criticado (por ejemplo, por que sólo presentaba datos sobre los océanos y no sobre tierra firme) o porque correlacionar dos series temporales no implica relación causa-efecto alguna). Por supuesto, los autores se defendieron: han propuesto una hipótesis y mientras no se demuestre lo contrario…

Los europeos extendieron su estudio hasta el año 2001 en N.D. Marsh and H. Svensmark, “Galactic cosmic ray and El Niño-Southern Oscillation trends in ISCCP-D2 low cloud properties,” Journal of Geophysical Research 108, p. 4195, 2006 . Encontraron cierta divergencia en la correlación entre RCG y cobertura nubosa, pero la atribuyeron a problemas de calibración del satélite durante los años 1994-95. Su conclusión, globalmente no hay correlación, pero la correlación local (regional) a corto plazo es “obvia”. Por supuesto, dicho artículo fue también muy criticado. Por destacar un artículo, mencionemos I.G. Usoskin et al., “Correlations between clouds at different altitudes and solar activity: fact or artifact?,” Journal of Atmospheric and Solar-Terrestrial Physics 68, pp. 2164-2172 ( 2006 ), que muestra la aparición de correlaciones espurias entre los datos de RCG y la cobertura nubosa que varían geográficamente. Estas correlaciones dificultan terriblemente la interpretación de cualquier correlación observada previamente.

Es por todo ello que la mayoría de los investigadores, como Brian H. Brown, “Short-term changes in global cloud cover and in cosmic radiation,” Journal of Atmospheric and Solar-Terrestrial Physics, Volume 70, Issue 7, Pages 1122-1131, May 2008 , tratan de buscar correlaciones locales (regionales) entre los RCG y la cobertura nubosa troposférica. Sus resultados muestran que hay una correlación positiva “pequeña” del orden del 4% en las variaciones de la nubosidad troposférica a corto plazo y del 3% en las variaciones de la nubosidad total como resultado de efectos extraterrestres (rayos cósmicos). Un análisis de correlación cruzada entre los cambios del RCG a corto plazo y los cambios en cobertura nubosa muestra una correlación positiva (p<0.05) con un retraso de unos 2 días, pero que sólo explica un 3% de dichos cambios.

Por supuesto, la interpretación de estas correlaciones no es nada fácil (como ocurre con cualquier correlación entre series temporales, ya que no es fácil deducir relaciones de causalidad entre ellas). Además, el filtrado de los datos, muy importante cuando las series temporales son “muy ruidosas” tiene una gran influencia en los resultados. El hecho de que la correlación encontrada es significativa sólo para cambios a corto plazo (entre 6 horas y 3 meses) entre la nubosidad y los RCG (pero no parece que la haya a largo plazo) nos indica que su efecto, existir existe, pero que su influencia climática, de existir, no es uno de los factores determinantes responsables de las variaciones de la cobertura nubosa (como mucho permiten explicar un 5% de dicha variación con un intervalo estadístico de confianza de p=0.06).

En resumen, en mi opinión, la opinión estándar de que el efecto de los rayos cósmicos en el cambio climático es de segundo orden (no es determinante) está bien fundamentada. Pero sólo el tiempo dirá si un inexperto como yo “acierta por casualidad” o “falla estrepitósamente”.

La fabricación de televisores de pantalla plana requiere el uso del gas trifluoruro de nitrógeno (NF3), que es un potente gas de efecto invernadero. Desafortunadamente, en el Protocolo de Kyoto de 1997 no se incluyó la regulación de sus emisiones ya que entonces sus emisiones eran extremadamente pequeñas. Ahora, que casi todo el mundo quiere un pantalla de TV plana tipo LCD y otros dispositivos portátiles, el problema del NF3 empieza a preocupar a los científicos (LCD making worse for environment than coal? ; Climate risk from flat-screen TVs ; Here’s a New Climate Change Culprit: Flat-Screen TVs ; y muchas otras).

¿Quién quiere “atacar” a los fabricantes de TV de LCD? ¿Los fabricantes de TV de plasma?

El estudio de Michael J. Prather and Juno Hsu, “NF3, the greenhouse gas missing from Kyoto,” GEOPHYSICAL RESEARCH LETTERS, VOL. 35, L12810, 2008 , nos recuerda que la vida media del NF3 en la atmósfera es de 550 años y que el número de toneladas emitidas en 2008 (valor estimado) es de 4000 (toneladas métricas), lo que, por sus efectos, equivale a una emisión de 67 millones de toneladas de CO2. El potencial como gas de invernadero del CO2 es igual a 1, el potencial del metano es de 25 y el potencial del NF3 es de 17.200 (increíble). Al menos así lo justifican ciertos estudios científicos, como J. I. Robson et al., “Revised IR spectrum, radiative efficiency and global warming potential of nitrogen trifluoride,” Geophys. Res. Lett., 33, L10817, 2006 .

¿Quién quiere “atacar” a los fabricantes de TV de LCD? ¿Los fabricantes de TV de plasma?

¿Para qué se usa el NF3 en la industria? Como nos indica en su post “Nitrogen trifluoride as an anthropogenic-greenhouse-forcing gas,” Luke Weston, July 3, 2008 , el NF3 es utilizada en la técnica de deposición química por vapor (chemical vapor deposition, CVD) en la industria de semiconductores. Es utilizado en otros procesos industriales (como ciertos tratamientos del silicio policristalino) ya que permite reemplazar a ciertos perfluorocarbonos que son gases de invernadores aún más potentes (es decir, se usa para reducir las emisiones). No hay nada específico en las pantallas planas de LCD que haga que su fabricación sea más productora de este gas que la fabricación de cualquiera otros componentes en la industria de semiconductores.

El trifluoruro de nitrógeno se utiliza para la fabricación de todos los dispositivos que contengan semiconductores (esencialmente, toda la tecnología electrónica moderna), desde el ordenador con el que lees esto, hasta tu televisor de LCD, paneles solares, o teléfonos móviles (celulares).

El trifluoruro de nitrógeno se utiliza como gas de efecto invernadero menos peligroso que otros gases de efecto invernadero, como los compuestos perfluorocarbonados. ¿Quién quiere “atacar” a los fabricantes de TV de LCD? ¿Los fabricantes de TV de plasma?

Michael E. Mann et al. “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia,” open access article, PNAS, published online september 2, 2008 . El artículo es de acceso gratuito y ánimo a todos los interesados en más detalles a leerlo con atención.Brevemente. Una reconstrucción de la temperatura superficial en el hemisferio norte durante los últimos 2000 años muestra una evidencia clara del calentamiento del clima en dicho hemisferio mostrando que los últimos 10 años han sido los más cálidos desde hace 1300 años, y quizás también desde hace 1700 años, con un intervalo estadístico de confianza superior al 95%. Los datos de temperatura se han promedidado en periodos de 40 años. Respecto al hemisferio sur, los datos no permiten extraer conclusiones. Por ello, del presente estudio no se puede extraer directamente que la Tierra en su conjunto sea más cálida.

Noticia aparecida al respecto en El Mundo, Ciencia: “La última década ha sido la más calurosa de los últimos 1.300 años“.

En un hemisferio norte más cálido, ¿habrá más huracanes (ciclones tropicales), serán más intensos y durará más la temporada? Un modelo de física elemental nos indica que las tormentas tropicales serán más intensas porque al estar más calientes los océanos transfieren más energía a las tormentas y en éstas aparecen vientos más fuertes. Sin embargo, modelos más avanzados parecían sugerir lo contrario (al menos el número de huracanes no parecía crecer). Quirin Schiermeier, “Hurricanes are getting fiercer. Global warming blamed for growth in storm intensity.” Nature, Published online 3 September 2008 , nos indica que la evidencia de que el cambio climático incrementará la intensidad de las tormentas más intensas en todo el mundo parece cada día más clara, aunque el número de tormentas no se ha incrementado. Así lo concluye un estudio que se publica hoy en Nature (James B. Elsner, James P. Kossin, and Thomas H. Jagger, “The increasing intensity of the strongest tropical cyclones,” Nature 455, 92-95, 4 September 2008 ) que confirma que desde 1981, la velocidad del viento máxima en los huracanes más intensos ha crecido. Para ello han recopilado datos de las velocidad del viento obtenidos mediante satélites.

Hay más huracanes de categorías (Saffir-Simpson) 4 y 5, con velocidades de viento máximas por encima de los 210 km/hora. Si se confirma este estudio, un incremento de 1ºC en la temperatura superficial del océano resulta en un incremento del 31% en la frecuencia anual de huracanes de categorías 4 y 5.

La noticia “Huracanes, cada vez más frecuentes e intensos debido al calentamiento global,” traducción de un artículo de Steve Connor, The Independent, puede ser de vuestro interés al respecto.

La noticia en inglés por Richard A. Kerr, “Stronger Winds A’ Blowin’,” ScienceNOW Daily News, 3 September 2008 , también es resultará interesante. Recordad que fue en Science en 2005 cuando se publicó un estudio que no encontraba relación entre el incremento de los huracanes y el cambio climático. Rectificar es de sabios.

La importancia de un titular es bien conocida (Tu blog y tu), aunque también que un titular puede desvirtuar una noticia (Un buen titular). Pongamos un ejemplo, de qué puede tratar una noticia titulada “Xenon ketchup.” Quizás ayude saber dónde se ha publicado: en el American Institute of Physics Bulletin of Physics News, Number 864 May 19, 2008, escrita por Phillip F. Schewe y Jason S. Bardi.

La noticia se refiere a un estudio realizado con el disco duro del ordenador del Transbordador Espacial Columbia, tristemente accidentado en 2003. Gracias a dicho disco duro, los científicos han estudiado cómo un material agitado puede cambiar muchísimo sus propiedades físicas. Dicho fenómeno es bien conocido en el ketchup. Si agitamos una botella, la pasta semisólida rápidamente se vuelve en un líquido bien fluido. Los investigadores de la ciencia de la cocina han estudiado como cambia su viscosidad (gracias a un reómetro) cuando es agitado, reduciéndola.

Robert Berg y sus colaboradores querían estudiar como cambia el comportamiento pseudoplástico (“adelgazamiento por corte” o “shear thinning”) de gran importancia en el procesamiento de comidas, polímeros y pinturas. Por ejemplo, el aceite del motor de un coche pierde viscosidad debido al movimiento de los componentes del motor, o la aplicación de pintura en una superficie puede ser más o menos suave en función de la brocha utilizada. Los investigadores querían estudiar este fenómeno en el gas noble xenón, que gracias a su bajo peso facilita las medidas experimentales. Pero se requiere para ello un ambiente de gravedad cero para evitar la estratificación del gas debido al campo gravitatorio terrestre. Lograron “colar” el experimento entre los estudios científicos a realizar en el Columbia. El desgraciado accidernte del Columbia destruyó el experimento. Afortunadamente, algunos datos del experimento se obtuvieron durante el ascenso del transbordador y se grabaron en el disco duro, que cayó junto al resto de las partes de la nave en una región entre Texas y Louisiana de algunos cientos de millas cuadradas.

Una empresa especializada en recuperar datos de discos duros dañados logró recobrar los datos del experimento del disco duro. Más aún, la célula central del experimento, conteniendo los átomos de xenón, se salvó milagrosamente, aunque su cubierta externa quedó completamente destruida. El xenón es un gas noble, no reacciona con otros átomos. Los investigadores querían estudiar el punto crítico de la transición entre los dos estados del xenón fluido que requieren condiciones especiales de presión y temperatura. El comportamiento pseudoplástico puede ser observado en el xenón, un gas, cuando éste se coloca en su punto crítico, igual que en el ketchup u otros fluidos que consistan en líquidos y pastas. Los resultados observados en la célula de xenón junto con los datos de los discos duros han permitido demostrar que la agitación fuerte reduce la viscosidad, confirmando un resultado teórico expuesto hace décadas entre el comportamiento pseudoplástico y la agitación (la relación de Carreau-Yasuda).

Robert Berg y sus colaboradores, cual agentes CSI (policía científica), han publicado el resultado de su experimento en el artículo Robert F. Berg, Michael R. Moldover, Minwu Yao, and Gregory A. Zimmerli, “Shear thinning near the critical point of xenon,” Physical Review E, 77, 041116 ( 2008 ).

Volviendo al tema de los titulares de las noticias. Esta noticia ha aparecido en muchos medios, por ejemplo, en las noticias científicas de la NASA, “The Physics of Whipped Cream,” en Scientific American, “Hard Drive Recovered from Columbia Shuttle Solves Physics Problem,” en la página web de la empresa que descifró el disco duro, Ontrack Data Recovery, “Data recovered from Columbia space shuttle solves physics problem,” etc.; cada fuente pone el “foco” en algo diferente. Así es la vida de un “titular.”

Málaga cuenta con la Nariz de Oro de 2007, Antonio Jesús Gutiérrez Blanco, de Trujal vinos y especialidades. Los ingenieros en enología están actualmente desarrollando narices electrónicas con objeto de sustituir o automatizar la labor de las Narices humanas. Por ejemplo, J. Lozano, T. Arroyo, J.P. Santos, J.M. Cabellos, M.C. Horrillo, “Electronic nose for wine ageing detection,” Sensors and Actuators B: Chemical, Volume 133, Issue 1, 28 July 2008, Pages 180-186, han desarrollado una nueva aplicación de las narices electrónicas (e-nose) para el reconocimiento y detección de la edad de un vino.

Han presentado dos tipos de medidas experimentales. Por un lado, de los vinos que han producido en una bodega experimental, utilizando el mismo tipo de uva, pero envejecido en diferentes tipos de barricas de roble (francés y americano) durante 0, 3, 6 y 12 meses. Por otro lado, han medido diferentes vinos producidos por la misma variedad de uva pero en diferentes bodegas que han envejecido en roble francés o americano. ¿Puede una nariz electrónica casera determinar la variedad de la uva y el tiempo de envejecimiento? Su nariz electrónica, técnicas estadísticas de análisis de componentes principales (principal component analysis, PCA) y técnicas de reconocimiento de patrones basadas en redes de neuronas artificiales estocásticas (probabilistic neural networks, PNN) ha logrado una tasa de éxito del 97% (por PCA) y del 84% (por PNN) en la detección de las diferentes etapas de envejecimiento experimentadas por los vinos estudiados.

La nariz electrónica desarrollada utilizada 16 sensores. La siguiente figura muestra la gran discriminación entre los resultados de dichos sensores en función del grado de envejicimiento del vino.

Las narices electrónicas nunca sustituirán, en mi opinión, a los sumillers. Sus descripciones en lenguaje natural son más poéticas que científicas y es esa poesía en la que no pueden competir los sistemas computacionales. Como dice nuestro amigo Antonio, «la cata es una búsqueda constante de sensaciones que se perciben, identifican y se archivan en la memoria sensorial, y cuando nos volvemos a encontrar con ella la reconocemos y le damos una comunicación escrita o verbal. Pero no tiene que ver con valoración degustativa, que es una confusión bastante habitual». Esta última es la que ofrecen las narices electrónicas.

La diferencia entre ciencia y religión no es la Fé, que es necesaria en ambas, sino el método científico. La caricatura de la izquierda lo ilustra muy bien (en inglés): “El método científico: Estos son los hechos. ¿Qué conclusiones podemos extraer de ellos? El método creacionista: Aquí está la conclusión. ¿Qué hechos podemos encontrar para demostrarla?”

Todas las verdades en Física están sujetas a la duda (la duda metódica cartesiana o la definición de ciencia de Popper): todas las verdades científicas deben ser refutables. Es por ello, que los experimentos “clásicos” que han demostrado la validez de ciertas “verdades” deben ser repetidos periódicamente en circunstancias diferentes con objeto de verificar dicha “verdad”. Por ejemplo, es válida la Ley de Newton de la Gravedad a escalas pequeñas. El último resultado del que tengo referencia dice que sí lo es hasta las 5 micras (micrómetros), para lo que se ha utilizado un dispositivo micromecánico (MEMS) para medir la fuerza en entre dos pequeñas masas separadas a dicha distancia. El artículo de D. M. Weld, J. Xia, B. Cabrera, A. Kapitulnik, “A New Apparatus for Detecting Micron-Scale Deviations from Newtonian Gravity,” ArXiv preprint, submitted on 7 Jan 2008 . ¿Qué pasa a distancias menores de 1 micra? ¿Se cumple la ley de Newton? Nadie lo sabe aún. Habrá que esperar a nuevos experimentos. Lo mismo ocurre a distancias muy grandes con la Relatividad General de Einstein, donde los experimentos directos son imposibles y algunos resultados de difícil explicación sugieren a algunos autores desviaciones respecto a la teoría.

A los científicos nos gusta hablar como si estuvieramos en posesión de la verdad, sin embargo, la “verdad” es que nuestra Fé en la Verdad debe ir unida a la Duda sobre su veracidad. ¿Cómo demostrar la dualidad onda-partícula para la luz y la materia en la Mecánica Cuántica? La manera más habitual es utilizar el experimento de la doble rendija. Young hace 200 años utilizó dicho experimento para demostrar las propiedades ondulatorias de la luza, haciendo pasar rayos de luz por un par de pequeños agujeros y observando las franjas de interferencia subsiguientes. En 1923, de Broglie propuso que los electrones y otras partículas materiales se podían describir como ondas lo que conduciría a la formación de patrones de interferencia cuando un haz de dichas partículas interactuace con una “pantalla” con dos pequeños agujeros o rendijas. En 1927, Davisson y Germer demostraron de esta forma la naturaleza ondulatoria del electrón. Dicho experimento se ha realizado también con neutrones, átomos, y moléculas. Por ejemplo, A. Zeilinger et al., “Wave-particle duality of C60 molecules,” Nature 401, 680-682, 14 October 1999 , realizó dicho experimento con fullerenos o buckybolas, moléculas con 60 átomos de carbono con forma de balón de fútbol; estas moléculas son prácticamente cuerpos clásicos dado el gran número de grados de libertad “cuánticos” que poseen con los que pueden interactuar con el entorno vía la decoherencia. Más recientemente se ha llegado a demostrar con moléculas aún más grandes, como los fullerenos C70, S. Gerlich et al., “A Kapitza-Dirac-Talbot-Lau interferometer for highly polarizable molecules,” Nature Physics 3, 711-715, 2007, ArXiv preprint.

El experimento de la doble rendija depende de la longitud de onda de de Broglie de la partícula (átomo o molécula) utilizada. Dicha longitud de onda es inversamente proporcional al momento (o la energía cinética) de la partícula, es decir, a más energía, menor longitud de onda. ¿Cuál es la longitud de onda más corta en la que el experimento ha sido comprobado? Acaba de publicarse hace unos días que dicho experimento con átomos de hidrógeno con una energía de 1.3 MeV, es decir, con una longitud de onda de 25 fm. (femtometros). El resultado del artículo de H. T. Schmidt et al., “Evidence of Wave-Particle Duality for Single Fast Hydrogen Atoms,” Phys. Rev. Lett. 101, 083201 ( 2008 ), confirma las conclusiones de la mecánica cuántica.

Estos experimentos son necesarios. Sin ellos, la ciencia no puede “progresar” ya que su progreso requiere reafirmar lo ya establecido en la búsqueda de su refutación.

Para los interesados en una breve explicación del experimento de la doble rendija, en inglés subtitulada en español, les recomiendo el siguiente vídeo de youtube.

http://es.youtube.com/watch?v=x53UGGB7XMI

En verano las moscas son muy pegajosas, siempre encima de uno, especialmente cuando hace calor. No hay manera de quitárselas de encima. La razón es que a las moscas les cuesta más volar cuando hace calor por ello necesitan parar más a menudo. La evolución ha hecho que las moscas que tienen que volar en ambientes más fríos tengan las alas más grandes (con más área y más largas), como han estudiado recientemente M. R. Frazier et al., “Cold rearing improves cold-flight performance in Drosophila via changes in wing morphology,” Journal of Experimental Biology 211, 2116-2122 ( 2008 ).

Pero, ¿cómo vuela una mosca? Un interesante y reciente artículo de revisión sobre el tema es Fritz-Olaf Lehmann, “When wings touch wakes: understanding locomotor force control by wake-wing interference in insect wings,” Review on Biomechanics of Flight, Journal of Experimental Biology 211, 224-233 ( 2008 ) , que por cierto, es un artículo de libre acceso (gratuito).

Hay dos efectos necesarios para el vuelo de la mosca, la producción de una estela de vórtices por cada ala independientmente y la interacción de los vórtices entre ambas alas. En un único aleteo, cada ala genera un vórtice (leading edge vortex, LEV en la figura) que interactúa con la estela de vórtices de aleteos anteriores permitiendo que el animal extraiga energía del fluido. Las figuras A-D muestran este efecto gráficamente. Sin embargo, las simulaciones por ordenador (utilizando CFD, computational fluid dynamics) muestran que este efecto no permite explicar toda la fuerza de sustentación en el vuelo del insecto. Estudios recientes han mostrado la gran importancia de la interacción entre ambas alas (mostrado en las figuras E-H). Durante el aleteo, cada ala produce un vórtice, que interactúan entre ellos y con la estela. La mosca acerca las alas entre sí, para luego alejarlas, produciendo un vacío en forma de V que incrementa la energía asociada a los vórtices y con ella la fuerza de sustentación conseguida. Los experimentos muestran que es necesaria una separación angular entre ambas alas de 10-12° (para un número de Reynolds de 134). En las alas de la mosca Drosophila (cuyo aleteo tiene una amplitud angular de 160°), la sustentación máxima aumenta aproximadamente un 17% por este proceso de interacción entre ambas alas, con respecto a la que se obtendría si actuarán independientemente. Más aún, durante la interacción entre los vórtices de ambas alas, el fluido reduce su velocidad localmente, reduciendo el gasto energético del aleteo para la mosca.

El movimiento del ala durante el aleteo es muy complejo y se suele describir por 6 fases separadas. No entraré en sus detalles. El artículo de Fritz-Olaf Lehmann and Simon Pick, “The aerodynamic benefit of wing-wing interaction depends on stroke trajectory in flapping insect wings,” Journal of Experimental Biology 210, 1362-1377 ( 2007 )(también gratuito) presenta gran número de detalles para los interesados. Para entender estos detalles sobre la aerodinámica del vuelo de la mosca han sido necesarias tanto las simulaciones por ordenador, como las presentadas en Ravi Ramamurti and William C. Sandberg, “A computational investigation of the three-dimensional unsteady aerodynamics of Drosophila hovering and maneuvering,” Journal of Experimental Biology 210, 881-896 ( 2007 ) (también gratuito), que muestra en detalle las curvas de iso-vorticidad así como las fuerzas y momentos que producen sobre las alas, como las video de alta velocidad, mediante cámaras infrarrojas para 3D, como las mostradas en Steven N. Fry, Rosalyn Sayaman and Michael H. Dickinson, “The aerodynamics of hovering flight in Drosophila,” Journal of Experimental Biology 208, 2303-2318 ( 2005 ), (también gratuito), quienes además de usar moscas también han utilizado robots como modelos.

¿Cómo controla el pequeño “cerebro” de la mosca su vuelo? Los detalles no se conocen todavía, pero los estudios parecen indicar claramente que la organización física de las conexiones neuronales están muy relacionadas con la aerodinámica y biomecánica de su vuelo, por ejemplo, véase Michael H. Dickinson, “The Initiation and Control of Rapid Flight Maneuvers in Fruit Flies,” Integrative and Comparative Biology 45(2):274-281 ( 2005 ) (también de acceso gratuito). Es sorprendente, pero muchos artículos relacionados con el vuelo de las moscas son de acceso gratuito en sus respectivas revistas (será que el tema tiene interés mediático e incrementa los índices de impacto).

¿Algún modelo matemático-físico sencillo de cómo vuelan las moscas? La aerodinámica de la interacción de vórtices es siempre complicada, pero el artículo de Laura A. Miller and Charles S. Peskin, “When vortices stick: an aerodynamic transition in tiny insect flight,” Journal of Experimental Biology 207, 3073-3088 ( 2004 ) (también gratuito), en mi opinión, puede ser comprendido por cualquier físico con un mínimo de bagaje (y que esté interesado en este asunto). Para los docentes y quienes estén interesados en una comparación entre cómo vuela un avión (la aerodinámica de un ala rígida) y una mosca, me parece que degustarán con placer el artículo de revisión de Sanjay P. Sane, “The aerodynamics of insect flight,” The Journal of Experimental Biology 206, 4191-4208 ( 2003 ), que desafortunadamente considera la aerodinámica de cada ala por separado (sólo estudia un ala) y no tiene en cuenta los efectos de interacción entre alas que hoy sabemos que son bastante importantes.

Es increíble lo que se ha avanzado en la última década de investigación en el vuelo de los insectos y de la mosca en concreto desde que M.H. Dickinson and K.G. Gotz, “The wake dynamics and flight forces of the fruit fly Drosophila melanogaster,” Journal of Experimental Biology, 199: 2085-2104, 1996 , realizaron las primeras visualizaciones del flujo alrededor de una mosca en vuelo y estimaron la fuerza de sustentación instantánea que permite entender el porqué vuelan. Si te atreves a ver este artículo verás lo “pobres” que eran sus imágenes del fluido, comparadas con las que se observan en los artículos más recientes y con las nuevas técnicas de visualización infrarroja tridimensional.

Todos hablan de lo mismo. Muchos blogs. Varias noticias en Menéame. ¿Pero alguien se ha leído el artículo científico? Me refiero a Gwyneth Card, Michael H. Dickinson, “Visually Mediated Motor Planning in the Escape Response of Drosophila,” Current Biology, In Press, Available online 28 August 2008 . Los investigadores del CalTech han escrito un artículo bastante interesante pero hay que leerselo. De todas formas, los que sólo queréis leer algo curioso sobre el tema podéis recurrir a la entrada de Curruncho “¿Por qué es tan difícil matar moscas?,” la de la Cadena Ser “¿Por qué es tan difícil atrapar moscas?,” la de 20minutos.es “¿Por qué es tan difícil matar una mosca?,” la de El Mundo “¿Por qué es tan difícil atrapar una mosca?,” la Opinión “La odisea de atrapar una mosca,” o la noticia de RTVE “¿Por qué es tan difícil matar moscas?,” por sólo mencionar unas pocas. Puedo citaros muchas más en inglés. Pero de qué va el susodicho artículo científico.

El resumen nos lo aclara “Los comportamientos reactivos requieren la habilidad de localizar espacialmente los estímulos recibidos y la de respondar rápidamente a ellos. La respuesta rápida es necesaria en los comportamientos evasivos como respuesta a los ataques de los predadores. Los autores han investigado la mosca de la fruta, Drosophila, encontrando que utilizan información visual con objeto de planificar un salto en la dirección opuesta a la que perciben que reciben un ataque. Para ello han utilizado vídeo de alta velocidad. Unos 200 milisegundos antes de ser golpeadas, las moscas ajustan su postura a la dirección de su futuro escape. Para ello, resituan su centro de masa de tal forma que la extensión de sus piernas les de un impulso máximo para la huida. Estos movimientos previos al vuelo tienen una magnitud y dirección que depende de la postura inicial de la mosca, por lo que los autores creen que involucran un sistema de control realimentado.”

Los investigadores han dirigido con un ángulo de 50° en una trayectoria descendente un disco negro de 14 cm. de diámetro hacia una mosca colocada en una plataforma de 5 milímetros cuadrados encima de un cilindro. Han rodado la respuesta de la mosca con una cámara de video de alta velocidad. El 96% de las moscas han respondido a la amaneza del disco saltando al aire e iniciando su vuelo (ver vídeo justo abajo). El retraso medio entre el inicio del estímulo y la respuesta de la mosca (pérdida de contacto tarsal de alguna de las patas) fue de 215 ms ± 42 ms (media ± desviación típica). Este valor es una cota superior del tiempo de respuesta neuronal de la mosca.

http://es.youtube.com/watch?v=-JXt09fAgZU

Obviamente las moscas estaban colocadas en la platarforma en diferentes posturas y direcciones, por lo que en algunos casos el ataque del disco era frontal. El video de alta resolución muestra que las moscas saltan con un ángulo aproximadamente a la mitad entre alejarse en dirección opuesta al obstáculo (α = θ +180°) y dirigirse directamente hacia él (α = 0°). Este sesgo hacia adelante no es sorprendente dado que el comportamiento voluntario de la mosca es huir del ataque.

La mosca calcula la dirección de escape a partir del estímulo visual debido al predador que se acerca (el disco en el experimento). ¿Influye el aire en movimiento debido al predador? Con objeto de estudiar su efecto, los investigadores han introducido un poco de “viento” entre el disco que se acerca y la plataforma en la que reposa la mosca. Los estudios estadísticos no muestran diferencia entre la respuesta de la mosca con y sin viento. Por ello concluyen que la información utilizada por la mosca para determinar la dirección de ataque es básicamente visual.

La mosca puede responder de dos formas diferentes, adaptando sus patas para saltar en la dirección adecuada o saltar como esté y luego cambiar de dirección gracias a sus alas. Los autores han estudiado estas dos posibilidades mediante el uso de moscas a las que les han quitado las alas (¿algo cruel es la ciencia?). El 97% de las moscas sin alas han saltado en la “misma” dirección que las moscas con alas (ver vídeo justo abajo). Mostrando que la respuesta inicial al estímulo es adaptar la postura de las patas para el salto en la dirección adecuada. Utilizando moscas a las que les han quitado las patas (¡la crueldad de la ciencia!) han mostrado que incluso sin ellas las moscas tratan de volar en la dirección adecuada aunque con una respuesta mucho más lenta. La mosca trata de huir “como sea” en la dirección “correcta,” moviendo como puede la postura de cuerpo, ayudándose de sus alas.

http://es.youtube.com/watch?v=WRK5kWKOHrc

¿Cómo es el sistema de control moto-sensorial de la mosca? En teoría de control hay dos tipos de sistemas, los retroalimentados (feedback), más complejos, y los directos (feedforward), más sencillos. En los directos el estímulo visual provoca un cambio en la postura de las patas, independientemente de la postura actual de las mismas. En los segundos (feedback) la postura actual de la mosca es utilizada como estado inicial a partir del cual se produce la adaptación de las patas en la dirección correcta antes del vuelo. Los investigadores han mostrado que el movimiento de las patas de la mosca “compensa” su postura inicial, mostrando que el sistema de control neuronal de la mosca es retroalimentado.

En resumen, los investigadores ham mostrado que ante un estímulo de ataque, la mosca Drosophila muestra un conjunto de acciones motoras antes de iniciar el vuelo que determinan la dirección inicial de escape. En unos 200 ms. la mosca estima la dirección de aproximación mediante estímulo visual, codifica un programa motor que mueve su cuerpo en una posición que facilita su salto en dirección “opuesta” a la de ataque, utilizando sus 6 patas de forma coordinada así como sus 3 segmentos torácicos. La dependencia con la postura inicial de este comportamiento sugiere un sistema de control retroalimentado. Los autores sugieren que las neuronas de las patas (propioceptores) y los circuitos neurales torácicos asociados son suficientes para lograr la retroalimentación observada.

Los resultados observados no se pueden justificar fácilmente con el mecanismo de escape visual basado en el par de neuronas de gran diámetro llamadas fibras gigantes de la mosca. Un sistema neuronal de pequeño diámetro, todavía por identificar, debe ser el responsable de la respuesta de escape observada de las moscas.

Cada avance de la ciencia nos muestra que todavía queda mucho por conocer.

SOY

Soy el que sabe que no es menos vano que el vano observador que en el espejo de silencio y cristal sigue el reflejo o el cuerpo (da lo mismo) del hermano.

Soy, tácitos amigos, el que sabe que no hay otra venganza que el olvido ni otro perdón. Un dios ha concedido al odio humano esta curiosa llave.

Soy el que pese a tan ilustres modos de errar, no ha descifrado el laberinto singular y plural, arduo y distinto,

del tiempo, que es uno y es de todos. Soy el que es nadie, el que no fue una espada en la guerra. Soy eco, olvido, nada.

Jorge Luis Borges, 1975

Sólo del 1-2% del ADN humano produce ARN que codifica proteínas. El resto era calificado como ADN “basura” (junk), ¿sirve para algo? Anna Petherick trata de contestar a las preguntas del título en Nature News, Nature 454, 1042-1045 ( 2008 ), published online 27 August 2008 .

En el cromosoma humano 12 se encuentra un trozo de ADN llamado HOTAIR (HOX antisense intergenic RNA), que no codifica ninguna proteína, luego no corresponde a un gen, aunque sí produce una molécula de ARN de unos 2.200 nucleótidos, llamada STAR por su descubridor, que afecta a ciertos genes del cromosoma humano 2 relacionados con el crecimiento de células de la piel. HOTAIR fue descubierto por John Rinn, quien lo califica como una “joya en el mar de los ARN largos.” Esta gran molécula de ARN no codificante es similar a Xist, el ejemplo más famoso de ARN largo no codificante, descubierto en 1991, que tiene 17.000 nucleótidos.

Hace sólo una década el ARN era considerado un mero intermediario entre el ADN y la maquinaria molecular de fabricación de proteínas, sin embargo, hoy las cosas han cambiado. Thomas Gingeras en 2005 demostró que en algunas células el 80% del ADN produce moléculas de ARN. En 2008, se ha demostrado que el 74% del genoma de la levadura de la cerveza (Saccharomyces cerevisiae) y el 90% de la levadura Schizosaccharomyces pombe producen ARN no codificante. ¿Para qué sirven todos estos “genes de ARN”? Actualmente no se sabe para qué sirven, ni siquiera se sabe si todos sirven para algo o sólo algunos. En especial, la polémica está servida para los trozos grandes de ARN no codificantes, algunos de más de 10.000 nucleótidos. De hecho, hay investigadores que creen que son “errores” que han permanecido en el genoma durante la evolución.

¿Cómo se puden saber para qué sirven? Lo más fácil es alterar genéticamente el ADN y ver qué pasa. Por ejemplo, en ratones, Jürgen Brosius de la University of Münster, Alemania, ha eliminado 150 nucléotidos que gneran ARN no codificantes en neuronas de ratones. Como resultado, aparentemente, nada ha pasado. Eso sí, el comportamiento de los animales parece “ligeramente” alterado en ciertos test de inteligencia. pero los cambios son muy sutiles para poder asociarlos completamente a dicha alteración genética.

Los investigadores que creen que estas cadenas largas de ARN no sirven para nada ponen siempre como ejemplo ciertos estudios de levaduras que muestran que muchas cadenas largas de ARN son rápidamente destruidas por el exosoma nuclear, un complejo protéico que degrada el ARN. En dicho caso, es difícil suponer que tienen alguna función específica. Gingeras contesta a dichos investigadores que dos tercios de los ARN largos portan una etiqueta molecular que hace que sean rápidamente degradados, pero el tercio restante no la porta, al menos que se sepa, luego puede tener algún tipo de función específica.

La cuestión está abierta actualmente. Futuros estudios decidirá si los ARN largos forman parte del transcriptoma, las redes de señalización celular que determinan cuándo se debe expresar o reprimir la producción de genes, o por el contrario son en su mayoría meros “errores” de transcripción que se han propagado gracias a la evolución.