¿Cómo puede evolucionar el Sistema Solar en el futuro? ¿Cuáles son las posibilidades de que los planetas sufran una inestabilidad orbital antes de que el Sol se vuelva una estrella gigante roja y destruya la Tierra? En tres palabras: alrededor del 1%. Así se indica en el artículo de Konstantin Batygin, Gregory Laughlin, “On the Dynamical Stability of the Solar System,” ArXiv preprint, 11 Apr 2008. El artículo es técnico, pero está magistralmente comentado en (el blog del propio Laughlin) “It won’t last forever…,” que resume los puntos más importantes del trabajo de Batygin sobre la estabilidad a largo plazo del Sistema Solar y sobre todo de su motivación (Konstantin es el alumno y Gregory el profesor).

La respuesta a estas preguntas requiere estudiar numéricamente la evolución de los 8 planetas (no se tienen en cuenta los planetas enanos ni demás cuerpos de menor tamaño) en integraciones de largo tiempo. Hoy en día, cualquier ordenador PC permite realizar simulaciones de los 8 planetas en tiempos más largos que la vida del Sol (antes de que se convierte en gigante roja, dentro de unos 6 mil millones de años) y Batygin lo ha hecho para los próximos 24 mil millones de años (mucho más allá de lo necesario). La siguiente figura muestra la excentricidad de la órbita terrestre durante los próximos 20 mil millones de años, mostrando que su órbita prácticamente no cambia (variaciones entre e=0 y e=0.07). Un resultado claramente aburrido.

Las simulaciones numéricas desarrolladas por Batygin incluyen la adición de un término perturbativo singular, desarrollado previamente por Laskar gracias al análisis de la simulación hacia atrás en el tiempo (técnica de análisis de bifurcaciones para sistemas “caóticos” hamiltonianos), que permite modelar mejor la existencia de resonancias entre el movimiento de los planetas. En concreto una resonancia entre Mercurio y Júpiter, mediada por Venus, conduce a un comportamiento de Mercurio muy errático. Como vemos en esta figura.

Este comportamiento conduce a interesantes sorpresas. En una simulación Mercurio cae en el Sol dentro de 1261 millones de años (Ma). En otra, Mercurio y Venus colisionan dentro de unos 862 Ma, tras la eyección de Marte fuera del Sistema Solar dentro de 822 Ma. (como vemos en la figura de abajo). En todas las simulaciones Júpiter, Saturno, Urano y Neptuno se mantendrán estables.

Más en broma que en serio, semiramis nos recuerda que “Venus no soporta que Mercurio (dios mensajero) le chive sus idilios a Marte (amante de la primera pero también cornudo) y razón por la cual éste último se pira del sistema solar. ¿Y para esa conclusión tanto cálculo numérico?”.

PS (5 ene 2013): Una versión actualizada de esta entrada, que merece la pena leer: Daniel Marín, “¿Puede Marte chocar contra la Tierra?,” Eureka, Ene. 03, 2013.

Sección transversal del Universo, con la Tierra en el centro de un gran vacío (azul). El vacío causaría una distorsión visible en el fondo cósmico de microondas. (c) Physical Review Letters, 2008.

En una entrada anterior ya comentamos que la “segunda” inflación, la expansión acelerada actual del universo, podría ser un artefacto de las medidas de distancias basadas en supernovas tipo Ia (ver entrada). Podría existir un “agujero” vacío a nuestro alrededor que falsearía las medidas. De existir ese agujero el principio cosmológico de la isotropía y homogeneidad del universo a escala cosmológica no sería válido a nuestro alrededor. Para verificar o refutar esta hipótesis la única vía posible es la experimental. En esta línea se acaba de publicar R. R. Caldwell and A. Stebbins, “A Test of the Copernican Principle,” Phys. Rev. Lett. 100, 191302 ( 2008 ), ArXiv preprint.

¿Ocupa la Tierra, o mejor, la Vía Láctea un lugar privilegiado en el Universo? ¿Podrían estar en el centro de un gran vacío de tamaño cosmológico, del orden de 1 gigapársec? [Recuerda la Vía Láctea tiene un diámetro menor de 10 kilopársec]. En su caso, la radiación de fondo de microondas (CMB) se vería alterada de tal forma que creeríamos que nos encontramos en un universo cuya expansión está acelerándose. Pero también dejaría otras marcas ques nos permitirían comprobar si realmente dicho vacío existe. El artículo de Caldwell-Stebbins, basado en los resultados del CMB de la sonda WMAP, excluyen la presencia de tal vacío (con radios hasta 5 gigaparsec), confirmando las ideas sobre el universo en expansión acelerada con un fuerte contenido en energía oscura.

La energía oscura ha vuelto a vencer. De todas formas, habrá que esperar a la sonda Planck para confirmar o refutar definitivamente la presencia de vacíos cósmicos como explicación del fenómeno de la energía oscura.

Proyección estándar en una esfera del CMB (www.futura-science.com).

El fondo cósmico de microondas (CMB) presenta ciertas fluctuaciones cuya explicación más sencilla es la existencia de un periodo inflacionario a los 0’00000 000000 000000 000000 000000 000000 001 segundos después del Big-Bang. Las fluctuaciones cuánticas del campo cuántico responsable de la inflación, llamado inflatón, fueron amplificadas enormemente (exponencialmente) por la aceleración de la expansión, originaron diferencias de densidad de materia en el plasma primordial. Si la anisotropía del CMB tiene su origen en fluctuaciones cuánticas lo que observamos en el CMB es un retrato de una función de onda cuántica a escala macroscópica, la teoría que lo explica se denomina teoría del vacío (del inflatón) de Bunch-Davies (sí, Paul Davies, el gran divulgador científico). Si tanto la mecánica cuántica (estándar) como la teoría (estándar) son válidas, entonces la anisotropía del CMB tiene que tener una distribución estadística gaussiana. ¿Pero realmente la tiene? Hasta hace unos meses se pensaba que sí…

Amit P. S. Yadav and Benjamin D. Wandelt, “Evidence of Primordial Non-Gaussianity (fNL) in the Wilkinson Microwave Anisotropy Probe 3-Year Data at 2.8,” Physical Review Letters, 100, art. 181301 (2008 ), acaban de publicar un artículo, aparecido el 9 de mayo de 2008 , en el que estudian los datos del WMAP de los últimos años y muestran que hay evidencia de que el CMB no tiene una distribución estadística gaussiana. Para ello han estudiado le término de correlación de 3 puntos para la función de perturbaciones en la curvatura del espacio-tiempo de Bardeen. Este término ƒNL tiene que ser exactamente 0 si el CMB es gaussiano. Sin embargo, han encontrado que, para ciertos canales de frecuencia, es no nulo ( 27< ƒNL < 147) con un intervalo de confianza del 95% (2.8 desviaciones típicas). ¿Qué significa este resultado? Hay múltiples respuestas posibles. Si la mecánica cuántica (estándar) es aplicable al universo primordial, entonces el modelo inflacionario (estándar) es incorrecto. Puede ocurrir que existan múltiples campos de inflatón, que sea válida el modelo ekpirótico del Big-Bang según la teoría de cuerdas, etc.

Pero existe otra posibilidad: contradecir a la sacrosanta Mecánica Cuántica (estándar). De ello se ha hecho eco, la noticia de Zeeya Merali, “Written in the skies: why quantum mechanics might be wrong,” Nature News, published online 15 May 2008 , que alude al reciente trabajo de Antony Valentini, “Inflationary Cosmology as a Probe of Primordial Quantum Mechanics,” ArXiv preprint, 1 Mahy 2008 , quien parece ser capaz de explicar la distribución no-gaussiana del fondo cósmico de microondas observada por Yadav-Wandelt, utilizando la teoría de la onda-piloto de de Broglie-Bohm, también llamada mecánica cuántica realista de Bohm. Esta teoría se publicó en 1952 por David Bohm y es la teoría de variables ocultas no locales más conocida, partiendo de ideas de Louis de Broglie. Para cada partícula existe una “onda guía” (la función de onda adquiere por tanto realidad física) que gobierna su movimiento. No es posible en laboratorio distinguir experimentalmente entre la mecánica cuántica (estándar) y la teoría de Bohm. Sin embargo, como la primera fue descubierta antes y la segunda “hereda” de la primera, muy pocos investigadores abogan por la mecánica de Bohm. Pero, ¿se puede demostrar que Bohm estaba equivocado? Valentini cree que sí, gracias al fondo cósmico de microondas y al futuro satélite Planck.

La cuestión si la Mecánica Cuántica es correcta podría pronto tener una respuesta negativa gracias a la observación del cielo. Antony Valentini, físico del Imperial College, Londres, quería desarrollar un test que pudiera separar la Mecánica Cuántica actual, de uno de sus más próximos rivales, la teoría de la Mecánica de Bohm. Aunque es una de las teorías de mayor éxito de toda la física, la Mecánica Cuántica contiene gran número de “paradojas”, especialmente en su interpretación con nuestros “ojos clásicos”, que la hacen “incómoda” (en palabras de Valentini). Por ejemplo, las propiedades de una partícula no tienen valores bien definidos (“no existen”) hasta que son medidos; antes de la medida, sólo podemos conocer las probabilidades de cada uno de dichos valores. Para muchos científicos, como Einstein, esto es “incómodo”, por lo que él creía que las partículas contenías ciertas propiedades “ocultas” (variables ocultas) que determinan su comportomiento completamente. La Mecánica de Bohm es una de las teorías de variables ocultas más desarrolladas en la actualidad y actualmente no se conocen experimentos que puedan demostrar que es errónea (en un laboratorio predice exactamente lo mismo que la Mecánica Cuántica).

Valentini cree que se podrían comparar ambas teorías con un análisis adecuado del fondo de microondas cósmico, ya que éste muestra puntos fríos y calientes que, se cree, fueron generados por la primera gran inflación que amplificó las fluctuaciones cuánticas del Universo primitivo. Valentini cree que cualquier “pequeña” violación de la mecánica cuántica en el periodo pre-inflacionario será amplificada por la inflación y dejará una huella en la estadística de fluctuaciones del fondo cósmico de microondas.

Hasta el momento, todas las medidas del fondo cósmico de microondas parecen encajar perfectamente en las predicciones de la Mecánica Cuántica, salvo un “pequeño detalle” que ha sido detectado por Amit Yadav y Ben Wandelt, University of Illinois at Urbana-Champaign, EEUU. Lo sorprendente es que las simulaciones desarrolladas por Valentini del efecto en el fondo cósmico de microondas de la inflación supuesta que se cumple la Mecánica de Bohm en el periodo pre-inflacionario, parece que explican perfectamente dicho “pequeño detalle”. Por supuesto, se requiere una confirmación mediante análisis independientes. Pero el resultado cuando menos “llama la atención”.

Como afirma Valentini, “todavía es pronto para afirmar que la Mecánica Cuántica es incorrecta, pero es una posibilidad que no podemos descartar”. También es pronto para afirmar que la Mecánica de Bohm es incorrecta, pero quizás el Planck tenga la respuesta.

Más sobre la mecánica de Bohm y las teorías de variables ocultas en “Lo decible e indecible en mecánica cuántica” John Bell. Este libro debe ser lectura obligatoria para todo físico. Una reseña. El libro nos enseña que la Mecánica Cuántica (estándar) o es una Teoría Realista y No Local, o es una Teoría Local pero No Realista. La interpretación de Copenhague avoga por lo segundo. La teoría de Bohm por lo primero.

Una “fuzzball” es una bola de “hilos” para recoger pelusas. Pero también es una propuesta para entender la información cuántica en los agujeros negros. El artículo de Kostas Skenderis and Marika Taylor, “The fuzzball proposal for black holes,” ArXiv preprint, 3 Apr 2008 , es muy interesante.

Bekenstein primero, y más tarde Hawking, asociaron a todo agujero negro el concepto de entropía (concepto termodinámico asociado a contar el número de estados “cuánticos” posibles de un sistema clásico macroscópico). En agujeros negros, la entropía es proporcional al área delimitada por el horizonte de sucesos (y no al volumen contenido en su interior como requeriría el principio de correspondencia si tuvieran origen cuántico). ¿Qué pueden ser los estados “cuánticos” posibles de un agujero negro? Según Penrose y Hawking los agujeros negros “no tienen pelo”: un agujero negro está caracterizado por su masa, momento cinético (rotación) y posibles cargas “topológicas” (normalmente son neutros) como su carga eléctrica (electrodinámica), carga de color (cromodinámica), etc. El agujero negro no tiene estructura interna desde un punto de vista clásico pero tampoco podemos recurrir a la gravedad cuántica, todavía no conocemos la teoría correcta (en teoría de cuerdas hay varias explicaciones posibles a la entropía del agujero negro, pero no hablaremos de ellas aqúi).

La idea de las fuzzybolas (fuzzballs) es simple. Para un un agujero negro de entropía S, se asume que existen exp(S) soluciones no singulares sin horizonte de sucesos asintóticamente similares a un agujero negro (lejos del horizonte), pero que difieren de éste en las cercanías del horizonte. El agujero negro con su horizonte de sucesos es el resultado de promediar todas estas soluciones sin horizonte. En este sentido clásico, dichas soluciones corresponden a los microestados del agujero negro.

Pero hablando de física y fútbol, este año que ha ganado la liga el Real Madrid, he de indicar de que hay gran número de fuentes en la web sobre este interesante tema, por ejemplo, sobre los efectos del balón cuando es impulsado con una cierta rotación permitiendo la actuación de la fuerza de Magnus y que el balón desvié su trayectoria dejando boquiabierto al público y los contrarios colocados en la barrera. Lo más importante es recordar que en inglés nos referimos la soccer (physics). Con un balón casi en la cara. A mí me gusta el libro “The Science of Soccer” (yo tengo una copia “alegal”) pero para los más puristas: algunos documentos gratuitos.

Esta tira de humor sobre CSI me ha recordado el artículo de Mathieu Bouville, “Crime and punishment in scientific research,” ArXiv preprint, 30 Mar 2008 . La ciencia necesita CSI que busquen las malas conductas científicas ya que las políticas actuales contra el fraude científico están muy limitadas: es posible que no se pueda probar que una conducta considerada como fraude realmente lo es, y es posible que cosas que normalmente no se consideran fraudulentas puedan ser consideradas erróneamente como tales. Los CSI de la ciencia, según Bouville, deben ser “científicos” no pueden ser impuestos desde la propia sociedad, deben ser impuestos desde la propia ciencia. La falsificación malintencionada de datos, el plagio, y otros fraudes deben ser tratados con mucho cuidado, anteponiendo la inocencia del científico como precepto básico.

Y todo esto viene a colación por el reciente Editorial en Nature 453, 258, 15 May 2008, “Negative results. Retracted papers require a thorough explanation of what went wrong in the experiments,” en relación a los dos artículos del bioquímico Homme Hellinga y sus estudiantes, del Duke University Medical Center in Durham, North Carolina, EEUU, que habían realizado un importante avance en el diseño de enzimas. El año pasado, otro químico encnotró que los enzimas de Hellinga no funcionaban, lo que provocó que él se retractara de los dos artículos en Febrero de este año en Nature. Sin embargo, en Marzo, un tercer grupo de investigadores ha publicado un artículo mostrando que en realidad el diseño de los enzimas de Hellinga en realidad sí funciona. ¡Qué cacao!

Este episodio revela muchos efectos laterales de las prácticas anti-fraude científico. Por ejemplo, John Richard de la State University of New York, Buffalo, EEUU, deseaba usar las proteínas de Hellinga para su propio trabajo. Necesitaron 7 meses y varios miles de dólares tratando de reproducir sus resultados sin lograrlo. De ahí que publicaron el artículo que llevó a la retracción. Pero a costa de mucho trabajo de investigación y mucho dinero. ¿Realmente se beneficiará la carrera de Richards por este trabajo? Probablemente, no. ¡Tiempo perdido en pos del avance de la ciencia!

Más aún, Hellinga tiene un prestigio “intocable”, pero sus estudiantes son las “cabezas de turco”. Mary Dwyer fue acusada por el propio Hellinga de falsificar los datos en los dos artículos retractados, aunque aparentemente no había evidencia de que lo hubiera hecho con mala intención, como ha revelado un estudio del caso por la propia universidad de Duke. Sin embargo, la acusación de su “jefe” podría causar mucho más daño en su carrera que el haber firmado dos artículos que han sido retractados. ¿Quién la contratará ahora para confiarle trabajos de investigación postdoctoral? Esta situación muestra la gran vulnerabilidad de los estudiantes en el sistema científico actual. De hecho, ahora sabemos que la decisión de Hellinga de “lavarse las manos” y acusar a Dwyer es muy cuestionable. Como director de tesis de Dwyer, Hellinga era el responsable de su formación como investigadora. Si ella cometió errores, el último responsable de los mismos era el “jefe” Hellinga. Por el contrario, acusándola a ella, él ha dilapidado cualquier posibilidad de discusión abierta y franca sobre el caso. ¡Se ha cargado su carrera!

¿Cuál es la situación actual para la Ciencia? La comunidad científica no sabe qué fue mal en el trabajo original, y puede que nunca lo sepa, ya que ni el trabajo de Richard, ni la acusación de fraude, ni las dos retracciones aportan información al respecto. ¿Realmente la comunidad científica puede seguir confiando en los resultados de Hellinga? Tanto él como su universidad deberían dar publicamente una respuesta clara a qué es lo que ha pasado, garantizando que no está ocurriendo en su laboratorio actualmente.

Este caso nos muestra las grandes debilidades del sistema científico, dejando claro que los CSI de la ciencia no son sólo una curiosida de serie televisiva, son una necesidad que los estados y las grandes instituciones científicas tienen que plantearse como urgencia. Si no, como siempre, los precarios serán los que pagarán el pato.

http://es.youtube.com/watch?v=yjX5dU1EkTk

Si un láser inyecta un pulso óptico excesivamente intenso en una fibra óptica convencional, se produce un fenómeno de ruptura en cadena de la fibra (fundición del núcleo, parte central, de la fibra, cual si fuera el cable de un fusible). Lo sorprendente es que empieza a fundirse por el extremo opuesto al láser. A una velocidad de fundición del orden de 1 m/s, se pueden fundir varios kilómetros en pocos minutos. En youtube buscas “fiber fuse” y tienes varios videos muy espectaculares del fenómeno. Arriba tienes un botón de muestra. Más videos los tiene en la página web (en inglés) de TODOROKI Shin-ichi. Te recomiendo su artículo “Two serendipitous episodes — How I embarked on fiber fuse research”, es muy curioso de leer.

Como afirma MiGui: No es sorprendente, verás, la fibra óptica es un medio dieléctrico por lo que conduce mal el calor. En cambio se intenta que tenga pocas pérdidas para que sea eficiente la transmisión, así que poca parte de la energía electromagnética del pulso emitido se pierde a lo largo de su recorrido. Pero claro, al llegar al final hay una discontinuidad brutal entre dos medios dieléctricos: el aire y la propia fibra. Así que ahí se produce una onda reflejada y una transmitida, pero como se trata de un cambio tan abrupto, la energía se acumula y se empieza a deshacer por ese extremo. Si empezase a fundirse al principio, no tendríamos fotónica ni comunicaciones ópticas ni nada por el estilo.

Este interesante fenómeno fue descubierto en 1987 por R. KASHYAP, “Self-propelled self-focusing damage in optical fibres,” Proc. Int. Conf. Lasers, 7-1, 1 December 1987, y publicado en una revista en 1988, R. KASHYAP, and K.J. BLOW, “Observation of catastrophic self-propelled self-focusing in optical fibres,” Electron. Lett., 1988, 24(1) 47-49. Artículos más recientes sobre el tema los tenéis aquí.

Reconócelo, Federico, ¡estás perdido!

¿Te gusta “patear” el monte? La página web FAQ-Navigation te será de cierta utilidad, aunque está escrita en inglés, es fácil de leer. A mí me gusta la parte de la regla de Naismisth (el inventor del baloncesto), regla que permite predecir el tiempo que tardaremos en cubrir nuestro recorrido. Presenta un resumen del artículo “Accessibility as an important wilderness indicator: Modelling Naismith’s Rule” , de Steffen Fritz and Steve Carver, quienes acompañan a la regla de Naismith de un algoritmo de búsqueda de caminos más cortos con objeto de predecir el tiempo que tardaremos en nuestro recorrido campestre. La regla básica de Naismith asume que andando podemos alcanzar una velocidad de 5 km/h en llano, pero queda por cada 600m de ascenso hay que añadir una hora al tiempo de recorrido. O lo que es lo mismo, la duración del recorrido se estima en 12 * km recorridos + 0.1 * metros ascendidos. Como Naismisth era un “máquina”, normalmente se recomienda tomar el doble del tiempo que esta regla indica (lo que nos dará el tiempo máximo del recorrido).

Existen versiones mejoradas de la regla de Naismith, por ejemplo, 5 km/h más 1 hora por cada 600 metros de ascenso, menos 10 minutos por cada 300 metros de descenso por pendientes entre 5 y 12 grados, más 10 minutos por cada 300 metros de descenso por pendientes mayores de 12 grados. Hay versiones aún más refinadas que tienen en cuenta el tipo de terreno, la meteorología, etc. Lo dicho, ánimo y a caminar

Máquina utilizada en el estudio (c) Nature.

El condón o preservativo es el medio más seguro de practicar sexo sin riesgos. Sin embargo, el 1% de los condones se rompen (según los estudios clínicos). Los condones “baratos” son de latex, pero los hay más caros de poliuretano, que son más delgados y muestran mejor elasticidad. Un estudio científico realizado en laboratorios de la compañía Durex utilizando un máquina de practicar sexo ha mostrado que los condones de latex son tan seguros como los de poliuretano: sufren el mismo número de desgarros en los experimentos en la “sex machine” de la foto. El artículo técnico es de White ND, Hill DM, Bodemeier S., “Male condoms that break in use do so mostly by a “blunt puncture” mechanism,” Contraception, 77(5):360-5, May 2008. El estudio es comentado como noticia en el número de hoy de la prestigiosa revista internacional Nature: Anna Petherick, “A side-splitting tale. Sex simulator sheds light on condom ruptures,” Nature, published online 14 May 2008. Por cierto, ¿ganará el Dr. White y su equipo un premio Nobel Ig este año? Habrá que estar al tanto.

El resumen de la noticia de Anna Petherick es “impactante”: Investigadores que han utilizado un dispositivo para simular la cópula humana (una “sex machine”) muestran que más del 90% de las rupturas de condones ocurren cuando la envoltura (el latex del condón) es extirada repetidamente mientras es introducido en el mismo agujero sin que se retorne a un estado relajado entre estos estiramientos. ¡Qué gran descubrimiento científico-técnico!

Anna Petherick no se queda ahí y trata de aclarar el asunto. Los estándares internacionales para la prueba de condones requieren dos evaluaciones de los esfuerzos tensiles del material del condón. Uno mide cuánto se estira un anillo de material entre dos cilindros rotativos y el otro requiere inflar el condón hasta que explote, determinando la presión y el volumen al que esto ocurre. Aún así, los estudios clínicos indican que alrededor del 1% de los condones se rompen. Sin embargo, estos estudios clínicos no pueden determinar el porqué se rompe.

Ahí es donde entra la “sex machine” que un equipo liderado por Nicholas White, jefe de control de calidad de SSL International, compañía de Cambridge, Reino Unido, a la que pertenece Durex, la mayor empresa del mundo en fabricación de condones, ha intentado un análisis más realista del proceso de ruptura del condón, para lo que ha utilizado un máquina sexual con “agujero” de diámetro ajustable, lubricación y control del empuje. Un juguete de sex-shop de primera línea.

Pero, ¿cómo saber que la “sex machine” simula “científicamente” la práctica del sexo? Lo más obvio es comprobar si los defectos de los condones “rotos por la máquina” son similares a los de los condones “rotos en la práctica del sexo por humanos”. El equipo del Dr. White examinó al microscopio las roturas de 972 condones que fueron retornados por sus usuarios (como parte de quejas) entre 1998 y 2005. Más del 60% de los condones, que no presentaban defectos obvios de fabricación o defectos claramente debidos a un uso incorrecto, presentaban señales de una ruptura circular hacia afuera que los investigadores llaman una “erupción”. Esta señal distintiva es la que los investigadores han tratado dereplicar utilizando la “sex machine”, utilizando los parámetros que ella permite controlar. Cuando lograron obtener estas “erupciones” se dieron por contentos y compararon los dos materiales más usados en la fabricación de condones, latex y poliuretano. Estos últimos son más caros, más delgados y muestran mejor elasticidad, sin embargo, los de latex “normales” son tan buenos que los “caros” en cuanto al modo en que sufren las roturas y en cuanto al número de roturas que sufren.

Las dos revistas científicas internacionales de mayor prestigio, Nature (inglesa) y Science (americana), mantienen una reñida pugna por ver cual de las dos es la que alcanza cada año el mayor índice de impacto y por ver cual de los dos publica los artículos más importantes del año. Siempre se ha considerado a Science como un poco más dada al marketing y a lo comercial que Nature, “algo” más seria. Ahora bien, también Nature publica noticias sobre artículos “poco” serios, como la noticia comentada.

España, junto a Francia, Italia, Alemania y Portugal, son los países europeos tradicionalmente productores y consumidores de vino. Con unos 1.1 millones de hectáreas de vid plantada, España es el primer país por extensión de viñedo en el mundo, y es el tercer productor con medias anuales de 32 millones de hectolitros, por detrás de Francia (56 millones) e Italia (51 millones). Además, los españoles ocupan el quinto lugar en cuanto al consumo con 14.5 millones de hectolitros por año (datos extraídos del IV Foro Mundial del Vino, 2004 ).

El sector vitivinícola español está reglamentado gracias al concepto de “Denominaciones de Origen”. El concepto es antiguo, ya en 1932 se elaboró el Estatuto del Vino que reconoció 18 zonas de España como regiones productoras de vino al amparo de la mención Denominación de Origen. La legislación más reciente al respecto, tras el ingreso de España en 1986 en la Comunidad Económica Europea (CEE), que desarrolló la Organización Común del Mercado Vitivinícola en 1999 (Reglamento (CE) 1493/1999), se concreta en la nueva Ley de la Viña y del Vino 24/2003 (BOE, 2003 ). La nueva ley propone una clasificación muy “detallada” de los vinos. Por ejemplo, en la clase de los Vinos de Calidad Producidos en una Región Determinada (VCPRD), donde se ubicaban los vinos con Denominación de Origen (DO) también aparecen los vinos con Denominación de Origen Calificada (DOC), los Vinos de Calidad con Indicación Geográfica y los Vinos de Pago.

La vida media una botella de vino sin abrir en una estantería (o bodega particular) depende fuertemente de las condiciones ambientales (ambiente oscuro, seco, pero fresco) pero también de la composición química del propio vino (que depende en parte de su calidad y envejecimiento previo en barrica, si es crianza, reserva, gran reserva, etc.). Los cosecheros son vinos para beber tras su compra, salvo contadas excepciones. Los crianza pueden aguantar bien varios años si tenemos un buen lugar para mantenerlos correctamente. Reservas y gran reservas pueden durar hasta décadas en óptimas condiciones de almacenamiento. Muchas catas profesionales de vinos vienen acompañadas de un vida media “estimada” del vino.

La clave de la conservación del vino en una bodega casera es el envejecimiento del vino en botella. Muchos son los problemas que pueden surgir si la conservación no es correcta. Por ejemplo, si el ambiente no es fresco, como el calor acelera la formación de carbamato de etilo, que es un componente carcinógeno (provoca cáncer) del vino, su efecto sobre la salud es obviamente nocivo. Un artículo interesante sobre el efecto de este componente en el envejecimiento del vino. Durante el envejecimiento de vinos tintos la formación de carbamato de etilo (uretano) se realiza a partir de la etanólisis de la urea procedente del metabolismo nitrogenado de levaduras y/o de compuestos carbamílicos derivados del metabolismo de bacterias lácticas. Por supuesto, más que el impacto en la salud del envejecimiento de la botella, el consumidor está más interesado en el impacto en las cualidades sensoriales (gusto, olfato, vista) del mismo sobre el vino, que degradan su disfrute.

Bajo condiciones ideales de conservación (ambiente controlado de temperatura (fescor), oscuridad y humedad) el vino presenta teóricamente su mayor vida útil. Los factores ambientales afectan a las reacciones químicas que siguen produciendose dentro de la botella. Por ejemplo, la tasa de consumo de oxígeno se incrementa con la temperatura. La composición del vino influye también en su envejecimiento, por ejemplo, su acided y pH, los niveles de dióxido de azufre libres, las concentraciones de fenoles y de taninos. Estos últimos, los taninos, protegen al vino de su oxidación ya que actúan como antioxidantes, por lo que son uno de los factores que garantizan una amplia vida “potencial” al vino. De hecho los vinos embejecidos en barrica largo tiempo presentan mayores cantidades de taninos que los jóvenes, por ello, crianzas y reservas tienen una vida más larga que los cosecheros.

Un análisis detallado de las reacciones químicas que se producen en el interior de la botella es complejo, y en parte bastante desconocido (¿cómo influye bioquímicamente el corcho?, algunos prefieren el tapón sintético, pero yo me quedo con el primero). La composición del vino depende tanto del varietal de uva utilizada como de las condiciones de fermentación en barrica del vino en la Bodega (envejicimiento oxidativo en barrica). Pero el vino en la botella que compramos en el super o en la vinoteca, también está influido por el proceso de distribución y almacenaje desde la Bodega hasta el lugar donde es expuesto para su venta. Son especialmente importantes las variaciones o fluctuaciones de temperatura. El embalaje del vino también influye.

Bodega típica de Soria. Study of the thermal behaviour of traditional wine cellars: the case of the area of “Tierras Sorianas del Cid” (Spain).

El modelo más simple del envejecimiento de un vino en función de la temperatura es la ley de Arrhenius, que asume la tasa de activación o reactividad de una ecuación química crece exponencialmente con la temperatura. Este modelo ha sido aplicado sobre todo al envejecimiento del vino en barrica. M. Ruiz de Adana, L.M. López, J.M. Sala, “A Fickian model for calculating wine losses from oak casks depending on conditions in ageing facilities,” Applied Thermal Engineering, Volume 25, Issues 5-6, April 2005, Pages 709-718, aplican este modelo en un contexto espacio-temporal, ley de difusión de Fick, aunque como son ingenieros, se centran en las pérdidas de vino durante el envejecimiento en barrica, que provocan “pérdidas” económicas a las bodegas (se pierde entre el 1% y el 9% del vino de la barrica dependiendo de las condiciones ambientales). En concreto, su modelo predice la cantidad de vino que se pierde por difusión en las paredes de la barrica y por evaporación en el aire en función de las condiciones de temperatura, humedad relativa, y velocidad del aire en la bodega. Los parámetros del modelo difusivo desarollado son ajustados mediante datos experimentales y validados con medidas experimentales independientes.

A quien disfruta del vino quizás le guste más el artículo, sin matemáticas, de Teresa Garde-Cerdán, Carmen Ancín-Azpilicueta, “Review of quality factors on wine ageing in oak barrels,” Trends in Food Science & Technology, Volume 17, Issue 8, August 2006, Pages 438-447, que presenta en detalle el estado actual de conocimientos sobre cómo influye la composición de la madera de la barrica en la calidad del vino resultante. ¿Pero cómo influye la barrica en el futuro envejecimiento del vino en botella? Pocos estudios hay sobre este proceso, pero quizás destaque M. Del Alamo Sanz and I. Nevares Domínguez, “Wine aging in bottle from artificial systems (staves and chips) and oak woods Anthocyanin composition,” Analytica Chimica Acta, Volume 563, Issues 1-2, 23 March 2006, Pages 255-263, aunque sólo se centran en la evolución de la antocianina en la botella, mostrando que los niveles de la misma decrecen ligeramente menos si el roble de la barrica era francés comparado con el americano o el húngaro.

SONETO DEL VINO

¿En qué reino, en qué siglo, bajo qué silenciosa conjunción de los astros, en qué secreto día que el mármol no ha salvado, surgió la valerosa y singular idea de inventar la alegría?

Con otoños de oro la inventaron. El vino fluye rojo a lo largo de las generaciones como el río del tiempo y en el arduo camino nos prodiga su música, su fuego y sus leones.

En la noche del júbilo o en la jornada adversa exalta la alegría o mitiga el espanto y el ditirambo nuevo que este día le canto otrora lo cantaron el árabe y el persa. Vino, enséñame el arte de ver mi propia historia como si ésta ya fuera ceniza en la memoria.

Jorge Luis Borges