Proyección estándar en una esfera del CMB (www.futura-science.com).

El fondo cósmico de microondas (CMB) presenta ciertas fluctuaciones cuya explicación más sencilla es la existencia de un periodo inflacionario a los 0’00000 000000 000000 000000 000000 000000 001 segundos después del Big-Bang. Las fluctuaciones cuánticas del campo cuántico responsable de la inflación, llamado inflatón, fueron amplificadas enormemente (exponencialmente) por la aceleración de la expansión, originaron diferencias de densidad de materia en el plasma primordial. Si la anisotropía del CMB tiene su origen en fluctuaciones cuánticas lo que observamos en el CMB es un retrato de una función de onda cuántica a escala macroscópica, la teoría que lo explica se denomina teoría del vacío (del inflatón) de Bunch-Davies (sí, Paul Davies, el gran divulgador científico). Si tanto la mecánica cuántica (estándar) como la teoría (estándar) son válidas, entonces la anisotropía del CMB tiene que tener una distribución estadística gaussiana. ¿Pero realmente la tiene? Hasta hace unos meses se pensaba que sí…

Amit P. S. Yadav and Benjamin D. Wandelt, “Evidence of Primordial Non-Gaussianity (fNL) in the Wilkinson Microwave Anisotropy Probe 3-Year Data at 2.8,” Physical Review Letters, 100, art. 181301 (2008 ), acaban de publicar un artículo, aparecido el 9 de mayo de 2008 , en el que estudian los datos del WMAP de los últimos años y muestran que hay evidencia de que el CMB no tiene una distribución estadística gaussiana. Para ello han estudiado le término de correlación de 3 puntos para la función de perturbaciones en la curvatura del espacio-tiempo de Bardeen. Este término ƒNL tiene que ser exactamente 0 si el CMB es gaussiano. Sin embargo, han encontrado que, para ciertos canales de frecuencia, es no nulo ( 27< ƒNL < 147) con un intervalo de confianza del 95% (2.8 desviaciones típicas). ¿Qué significa este resultado? Hay múltiples respuestas posibles. Si la mecánica cuántica (estándar) es aplicable al universo primordial, entonces el modelo inflacionario (estándar) es incorrecto. Puede ocurrir que existan múltiples campos de inflatón, que sea válida el modelo ekpirótico del Big-Bang según la teoría de cuerdas, etc.

Pero existe otra posibilidad: contradecir a la sacrosanta Mecánica Cuántica (estándar). De ello se ha hecho eco, la noticia de Zeeya Merali, “Written in the skies: why quantum mechanics might be wrong,” Nature News, published online 15 May 2008 , que alude al reciente trabajo de Antony Valentini, “Inflationary Cosmology as a Probe of Primordial Quantum Mechanics,” ArXiv preprint, 1 Mahy 2008 , quien parece ser capaz de explicar la distribución no-gaussiana del fondo cósmico de microondas observada por Yadav-Wandelt, utilizando la teoría de la onda-piloto de de Broglie-Bohm, también llamada mecánica cuántica realista de Bohm. Esta teoría se publicó en 1952 por David Bohm y es la teoría de variables ocultas no locales más conocida, partiendo de ideas de Louis de Broglie. Para cada partícula existe una “onda guía” (la función de onda adquiere por tanto realidad física) que gobierna su movimiento. No es posible en laboratorio distinguir experimentalmente entre la mecánica cuántica (estándar) y la teoría de Bohm. Sin embargo, como la primera fue descubierta antes y la segunda “hereda” de la primera, muy pocos investigadores abogan por la mecánica de Bohm. Pero, ¿se puede demostrar que Bohm estaba equivocado? Valentini cree que sí, gracias al fondo cósmico de microondas y al futuro satélite Planck.

La cuestión si la Mecánica Cuántica es correcta podría pronto tener una respuesta negativa gracias a la observación del cielo. Antony Valentini, físico del Imperial College, Londres, quería desarrollar un test que pudiera separar la Mecánica Cuántica actual, de uno de sus más próximos rivales, la teoría de la Mecánica de Bohm. Aunque es una de las teorías de mayor éxito de toda la física, la Mecánica Cuántica contiene gran número de “paradojas”, especialmente en su interpretación con nuestros “ojos clásicos”, que la hacen “incómoda” (en palabras de Valentini). Por ejemplo, las propiedades de una partícula no tienen valores bien definidos (“no existen”) hasta que son medidos; antes de la medida, sólo podemos conocer las probabilidades de cada uno de dichos valores. Para muchos científicos, como Einstein, esto es “incómodo”, por lo que él creía que las partículas contenías ciertas propiedades “ocultas” (variables ocultas) que determinan su comportomiento completamente. La Mecánica de Bohm es una de las teorías de variables ocultas más desarrolladas en la actualidad y actualmente no se conocen experimentos que puedan demostrar que es errónea (en un laboratorio predice exactamente lo mismo que la Mecánica Cuántica).

Valentini cree que se podrían comparar ambas teorías con un análisis adecuado del fondo de microondas cósmico, ya que éste muestra puntos fríos y calientes que, se cree, fueron generados por la primera gran inflación que amplificó las fluctuaciones cuánticas del Universo primitivo. Valentini cree que cualquier “pequeña” violación de la mecánica cuántica en el periodo pre-inflacionario será amplificada por la inflación y dejará una huella en la estadística de fluctuaciones del fondo cósmico de microondas.

Hasta el momento, todas las medidas del fondo cósmico de microondas parecen encajar perfectamente en las predicciones de la Mecánica Cuántica, salvo un “pequeño detalle” que ha sido detectado por Amit Yadav y Ben Wandelt, University of Illinois at Urbana-Champaign, EEUU. Lo sorprendente es que las simulaciones desarrolladas por Valentini del efecto en el fondo cósmico de microondas de la inflación supuesta que se cumple la Mecánica de Bohm en el periodo pre-inflacionario, parece que explican perfectamente dicho “pequeño detalle”. Por supuesto, se requiere una confirmación mediante análisis independientes. Pero el resultado cuando menos “llama la atención”.

Como afirma Valentini, “todavía es pronto para afirmar que la Mecánica Cuántica es incorrecta, pero es una posibilidad que no podemos descartar”. También es pronto para afirmar que la Mecánica de Bohm es incorrecta, pero quizás el Planck tenga la respuesta.

Más sobre la mecánica de Bohm y las teorías de variables ocultas en “Lo decible e indecible en mecánica cuántica” John Bell. Este libro debe ser lectura obligatoria para todo físico. Una reseña. El libro nos enseña que la Mecánica Cuántica (estándar) o es una Teoría Realista y No Local, o es una Teoría Local pero No Realista. La interpretación de Copenhague avoga por lo segundo. La teoría de Bohm por lo primero.

Una “fuzzball” es una bola de “hilos” para recoger pelusas. Pero también es una propuesta para entender la información cuántica en los agujeros negros. El artículo de Kostas Skenderis and Marika Taylor, “The fuzzball proposal for black holes,” ArXiv preprint, 3 Apr 2008 , es muy interesante.

Bekenstein primero, y más tarde Hawking, asociaron a todo agujero negro el concepto de entropía (concepto termodinámico asociado a contar el número de estados “cuánticos” posibles de un sistema clásico macroscópico). En agujeros negros, la entropía es proporcional al área delimitada por el horizonte de sucesos (y no al volumen contenido en su interior como requeriría el principio de correspondencia si tuvieran origen cuántico). ¿Qué pueden ser los estados “cuánticos” posibles de un agujero negro? Según Penrose y Hawking los agujeros negros “no tienen pelo”: un agujero negro está caracterizado por su masa, momento cinético (rotación) y posibles cargas “topológicas” (normalmente son neutros) como su carga eléctrica (electrodinámica), carga de color (cromodinámica), etc. El agujero negro no tiene estructura interna desde un punto de vista clásico pero tampoco podemos recurrir a la gravedad cuántica, todavía no conocemos la teoría correcta (en teoría de cuerdas hay varias explicaciones posibles a la entropía del agujero negro, pero no hablaremos de ellas aqúi).

La idea de las fuzzybolas (fuzzballs) es simple. Para un un agujero negro de entropía S, se asume que existen exp(S) soluciones no singulares sin horizonte de sucesos asintóticamente similares a un agujero negro (lejos del horizonte), pero que difieren de éste en las cercanías del horizonte. El agujero negro con su horizonte de sucesos es el resultado de promediar todas estas soluciones sin horizonte. En este sentido clásico, dichas soluciones corresponden a los microestados del agujero negro.

Pero hablando de física y fútbol, este año que ha ganado la liga el Real Madrid, he de indicar de que hay gran número de fuentes en la web sobre este interesante tema, por ejemplo, sobre los efectos del balón cuando es impulsado con una cierta rotación permitiendo la actuación de la fuerza de Magnus y que el balón desvié su trayectoria dejando boquiabierto al público y los contrarios colocados en la barrera. Lo más importante es recordar que en inglés nos referimos la soccer (physics). Con un balón casi en la cara. A mí me gusta el libro “The Science of Soccer” (yo tengo una copia “alegal”) pero para los más puristas: algunos documentos gratuitos.

Esta tira de humor sobre CSI me ha recordado el artículo de Mathieu Bouville, “Crime and punishment in scientific research,” ArXiv preprint, 30 Mar 2008 . La ciencia necesita CSI que busquen las malas conductas científicas ya que las políticas actuales contra el fraude científico están muy limitadas: es posible que no se pueda probar que una conducta considerada como fraude realmente lo es, y es posible que cosas que normalmente no se consideran fraudulentas puedan ser consideradas erróneamente como tales. Los CSI de la ciencia, según Bouville, deben ser “científicos” no pueden ser impuestos desde la propia sociedad, deben ser impuestos desde la propia ciencia. La falsificación malintencionada de datos, el plagio, y otros fraudes deben ser tratados con mucho cuidado, anteponiendo la inocencia del científico como precepto básico.

Y todo esto viene a colación por el reciente Editorial en Nature 453, 258, 15 May 2008, “Negative results. Retracted papers require a thorough explanation of what went wrong in the experiments,” en relación a los dos artículos del bioquímico Homme Hellinga y sus estudiantes, del Duke University Medical Center in Durham, North Carolina, EEUU, que habían realizado un importante avance en el diseño de enzimas. El año pasado, otro químico encnotró que los enzimas de Hellinga no funcionaban, lo que provocó que él se retractara de los dos artículos en Febrero de este año en Nature. Sin embargo, en Marzo, un tercer grupo de investigadores ha publicado un artículo mostrando que en realidad el diseño de los enzimas de Hellinga en realidad sí funciona. ¡Qué cacao!

Este episodio revela muchos efectos laterales de las prácticas anti-fraude científico. Por ejemplo, John Richard de la State University of New York, Buffalo, EEUU, deseaba usar las proteínas de Hellinga para su propio trabajo. Necesitaron 7 meses y varios miles de dólares tratando de reproducir sus resultados sin lograrlo. De ahí que publicaron el artículo que llevó a la retracción. Pero a costa de mucho trabajo de investigación y mucho dinero. ¿Realmente se beneficiará la carrera de Richards por este trabajo? Probablemente, no. ¡Tiempo perdido en pos del avance de la ciencia!

Más aún, Hellinga tiene un prestigio “intocable”, pero sus estudiantes son las “cabezas de turco”. Mary Dwyer fue acusada por el propio Hellinga de falsificar los datos en los dos artículos retractados, aunque aparentemente no había evidencia de que lo hubiera hecho con mala intención, como ha revelado un estudio del caso por la propia universidad de Duke. Sin embargo, la acusación de su “jefe” podría causar mucho más daño en su carrera que el haber firmado dos artículos que han sido retractados. ¿Quién la contratará ahora para confiarle trabajos de investigación postdoctoral? Esta situación muestra la gran vulnerabilidad de los estudiantes en el sistema científico actual. De hecho, ahora sabemos que la decisión de Hellinga de “lavarse las manos” y acusar a Dwyer es muy cuestionable. Como director de tesis de Dwyer, Hellinga era el responsable de su formación como investigadora. Si ella cometió errores, el último responsable de los mismos era el “jefe” Hellinga. Por el contrario, acusándola a ella, él ha dilapidado cualquier posibilidad de discusión abierta y franca sobre el caso. ¡Se ha cargado su carrera!

¿Cuál es la situación actual para la Ciencia? La comunidad científica no sabe qué fue mal en el trabajo original, y puede que nunca lo sepa, ya que ni el trabajo de Richard, ni la acusación de fraude, ni las dos retracciones aportan información al respecto. ¿Realmente la comunidad científica puede seguir confiando en los resultados de Hellinga? Tanto él como su universidad deberían dar publicamente una respuesta clara a qué es lo que ha pasado, garantizando que no está ocurriendo en su laboratorio actualmente.

Este caso nos muestra las grandes debilidades del sistema científico, dejando claro que los CSI de la ciencia no son sólo una curiosida de serie televisiva, son una necesidad que los estados y las grandes instituciones científicas tienen que plantearse como urgencia. Si no, como siempre, los precarios serán los que pagarán el pato.

http://es.youtube.com/watch?v=yjX5dU1EkTk

Si un láser inyecta un pulso óptico excesivamente intenso en una fibra óptica convencional, se produce un fenómeno de ruptura en cadena de la fibra (fundición del núcleo, parte central, de la fibra, cual si fuera el cable de un fusible). Lo sorprendente es que empieza a fundirse por el extremo opuesto al láser. A una velocidad de fundición del orden de 1 m/s, se pueden fundir varios kilómetros en pocos minutos. En youtube buscas “fiber fuse” y tienes varios videos muy espectaculares del fenómeno. Arriba tienes un botón de muestra. Más videos los tiene en la página web (en inglés) de TODOROKI Shin-ichi. Te recomiendo su artículo “Two serendipitous episodes — How I embarked on fiber fuse research”, es muy curioso de leer.

Como afirma MiGui: No es sorprendente, verás, la fibra óptica es un medio dieléctrico por lo que conduce mal el calor. En cambio se intenta que tenga pocas pérdidas para que sea eficiente la transmisión, así que poca parte de la energía electromagnética del pulso emitido se pierde a lo largo de su recorrido. Pero claro, al llegar al final hay una discontinuidad brutal entre dos medios dieléctricos: el aire y la propia fibra. Así que ahí se produce una onda reflejada y una transmitida, pero como se trata de un cambio tan abrupto, la energía se acumula y se empieza a deshacer por ese extremo. Si empezase a fundirse al principio, no tendríamos fotónica ni comunicaciones ópticas ni nada por el estilo.

Este interesante fenómeno fue descubierto en 1987 por R. KASHYAP, “Self-propelled self-focusing damage in optical fibres,” Proc. Int. Conf. Lasers, 7-1, 1 December 1987, y publicado en una revista en 1988, R. KASHYAP, and K.J. BLOW, “Observation of catastrophic self-propelled self-focusing in optical fibres,” Electron. Lett., 1988, 24(1) 47-49. Artículos más recientes sobre el tema los tenéis aquí.

Reconócelo, Federico, ¡estás perdido!

¿Te gusta “patear” el monte? La página web FAQ-Navigation te será de cierta utilidad, aunque está escrita en inglés, es fácil de leer. A mí me gusta la parte de la regla de Naismisth (el inventor del baloncesto), regla que permite predecir el tiempo que tardaremos en cubrir nuestro recorrido. Presenta un resumen del artículo “Accessibility as an important wilderness indicator: Modelling Naismith’s Rule” , de Steffen Fritz and Steve Carver, quienes acompañan a la regla de Naismith de un algoritmo de búsqueda de caminos más cortos con objeto de predecir el tiempo que tardaremos en nuestro recorrido campestre. La regla básica de Naismith asume que andando podemos alcanzar una velocidad de 5 km/h en llano, pero queda por cada 600m de ascenso hay que añadir una hora al tiempo de recorrido. O lo que es lo mismo, la duración del recorrido se estima en 12 * km recorridos + 0.1 * metros ascendidos. Como Naismisth era un “máquina”, normalmente se recomienda tomar el doble del tiempo que esta regla indica (lo que nos dará el tiempo máximo del recorrido).

Existen versiones mejoradas de la regla de Naismith, por ejemplo, 5 km/h más 1 hora por cada 600 metros de ascenso, menos 10 minutos por cada 300 metros de descenso por pendientes entre 5 y 12 grados, más 10 minutos por cada 300 metros de descenso por pendientes mayores de 12 grados. Hay versiones aún más refinadas que tienen en cuenta el tipo de terreno, la meteorología, etc. Lo dicho, ánimo y a caminar

Máquina utilizada en el estudio (c) Nature.

El condón o preservativo es el medio más seguro de practicar sexo sin riesgos. Sin embargo, el 1% de los condones se rompen (según los estudios clínicos). Los condones “baratos” son de latex, pero los hay más caros de poliuretano, que son más delgados y muestran mejor elasticidad. Un estudio científico realizado en laboratorios de la compañía Durex utilizando un máquina de practicar sexo ha mostrado que los condones de latex son tan seguros como los de poliuretano: sufren el mismo número de desgarros en los experimentos en la “sex machine” de la foto. El artículo técnico es de White ND, Hill DM, Bodemeier S., “Male condoms that break in use do so mostly by a “blunt puncture” mechanism,” Contraception, 77(5):360-5, May 2008. El estudio es comentado como noticia en el número de hoy de la prestigiosa revista internacional Nature: Anna Petherick, “A side-splitting tale. Sex simulator sheds light on condom ruptures,” Nature, published online 14 May 2008. Por cierto, ¿ganará el Dr. White y su equipo un premio Nobel Ig este año? Habrá que estar al tanto.

El resumen de la noticia de Anna Petherick es “impactante”: Investigadores que han utilizado un dispositivo para simular la cópula humana (una “sex machine”) muestran que más del 90% de las rupturas de condones ocurren cuando la envoltura (el latex del condón) es extirada repetidamente mientras es introducido en el mismo agujero sin que se retorne a un estado relajado entre estos estiramientos. ¡Qué gran descubrimiento científico-técnico!

Anna Petherick no se queda ahí y trata de aclarar el asunto. Los estándares internacionales para la prueba de condones requieren dos evaluaciones de los esfuerzos tensiles del material del condón. Uno mide cuánto se estira un anillo de material entre dos cilindros rotativos y el otro requiere inflar el condón hasta que explote, determinando la presión y el volumen al que esto ocurre. Aún así, los estudios clínicos indican que alrededor del 1% de los condones se rompen. Sin embargo, estos estudios clínicos no pueden determinar el porqué se rompe.

Ahí es donde entra la “sex machine” que un equipo liderado por Nicholas White, jefe de control de calidad de SSL International, compañía de Cambridge, Reino Unido, a la que pertenece Durex, la mayor empresa del mundo en fabricación de condones, ha intentado un análisis más realista del proceso de ruptura del condón, para lo que ha utilizado un máquina sexual con “agujero” de diámetro ajustable, lubricación y control del empuje. Un juguete de sex-shop de primera línea.

Pero, ¿cómo saber que la “sex machine” simula “científicamente” la práctica del sexo? Lo más obvio es comprobar si los defectos de los condones “rotos por la máquina” son similares a los de los condones “rotos en la práctica del sexo por humanos”. El equipo del Dr. White examinó al microscopio las roturas de 972 condones que fueron retornados por sus usuarios (como parte de quejas) entre 1998 y 2005. Más del 60% de los condones, que no presentaban defectos obvios de fabricación o defectos claramente debidos a un uso incorrecto, presentaban señales de una ruptura circular hacia afuera que los investigadores llaman una “erupción”. Esta señal distintiva es la que los investigadores han tratado dereplicar utilizando la “sex machine”, utilizando los parámetros que ella permite controlar. Cuando lograron obtener estas “erupciones” se dieron por contentos y compararon los dos materiales más usados en la fabricación de condones, latex y poliuretano. Estos últimos son más caros, más delgados y muestran mejor elasticidad, sin embargo, los de latex “normales” son tan buenos que los “caros” en cuanto al modo en que sufren las roturas y en cuanto al número de roturas que sufren.

Las dos revistas científicas internacionales de mayor prestigio, Nature (inglesa) y Science (americana), mantienen una reñida pugna por ver cual de las dos es la que alcanza cada año el mayor índice de impacto y por ver cual de los dos publica los artículos más importantes del año. Siempre se ha considerado a Science como un poco más dada al marketing y a lo comercial que Nature, “algo” más seria. Ahora bien, también Nature publica noticias sobre artículos “poco” serios, como la noticia comentada.

España, junto a Francia, Italia, Alemania y Portugal, son los países europeos tradicionalmente productores y consumidores de vino. Con unos 1.1 millones de hectáreas de vid plantada, España es el primer país por extensión de viñedo en el mundo, y es el tercer productor con medias anuales de 32 millones de hectolitros, por detrás de Francia (56 millones) e Italia (51 millones). Además, los españoles ocupan el quinto lugar en cuanto al consumo con 14.5 millones de hectolitros por año (datos extraídos del IV Foro Mundial del Vino, 2004 ).

El sector vitivinícola español está reglamentado gracias al concepto de “Denominaciones de Origen”. El concepto es antiguo, ya en 1932 se elaboró el Estatuto del Vino que reconoció 18 zonas de España como regiones productoras de vino al amparo de la mención Denominación de Origen. La legislación más reciente al respecto, tras el ingreso de España en 1986 en la Comunidad Económica Europea (CEE), que desarrolló la Organización Común del Mercado Vitivinícola en 1999 (Reglamento (CE) 1493/1999), se concreta en la nueva Ley de la Viña y del Vino 24/2003 (BOE, 2003 ). La nueva ley propone una clasificación muy “detallada” de los vinos. Por ejemplo, en la clase de los Vinos de Calidad Producidos en una Región Determinada (VCPRD), donde se ubicaban los vinos con Denominación de Origen (DO) también aparecen los vinos con Denominación de Origen Calificada (DOC), los Vinos de Calidad con Indicación Geográfica y los Vinos de Pago.

La vida media una botella de vino sin abrir en una estantería (o bodega particular) depende fuertemente de las condiciones ambientales (ambiente oscuro, seco, pero fresco) pero también de la composición química del propio vino (que depende en parte de su calidad y envejecimiento previo en barrica, si es crianza, reserva, gran reserva, etc.). Los cosecheros son vinos para beber tras su compra, salvo contadas excepciones. Los crianza pueden aguantar bien varios años si tenemos un buen lugar para mantenerlos correctamente. Reservas y gran reservas pueden durar hasta décadas en óptimas condiciones de almacenamiento. Muchas catas profesionales de vinos vienen acompañadas de un vida media “estimada” del vino.

La clave de la conservación del vino en una bodega casera es el envejecimiento del vino en botella. Muchos son los problemas que pueden surgir si la conservación no es correcta. Por ejemplo, si el ambiente no es fresco, como el calor acelera la formación de carbamato de etilo, que es un componente carcinógeno (provoca cáncer) del vino, su efecto sobre la salud es obviamente nocivo. Un artículo interesante sobre el efecto de este componente en el envejecimiento del vino. Durante el envejecimiento de vinos tintos la formación de carbamato de etilo (uretano) se realiza a partir de la etanólisis de la urea procedente del metabolismo nitrogenado de levaduras y/o de compuestos carbamílicos derivados del metabolismo de bacterias lácticas. Por supuesto, más que el impacto en la salud del envejecimiento de la botella, el consumidor está más interesado en el impacto en las cualidades sensoriales (gusto, olfato, vista) del mismo sobre el vino, que degradan su disfrute.

Bajo condiciones ideales de conservación (ambiente controlado de temperatura (fescor), oscuridad y humedad) el vino presenta teóricamente su mayor vida útil. Los factores ambientales afectan a las reacciones químicas que siguen produciendose dentro de la botella. Por ejemplo, la tasa de consumo de oxígeno se incrementa con la temperatura. La composición del vino influye también en su envejecimiento, por ejemplo, su acided y pH, los niveles de dióxido de azufre libres, las concentraciones de fenoles y de taninos. Estos últimos, los taninos, protegen al vino de su oxidación ya que actúan como antioxidantes, por lo que son uno de los factores que garantizan una amplia vida “potencial” al vino. De hecho los vinos embejecidos en barrica largo tiempo presentan mayores cantidades de taninos que los jóvenes, por ello, crianzas y reservas tienen una vida más larga que los cosecheros.

Un análisis detallado de las reacciones químicas que se producen en el interior de la botella es complejo, y en parte bastante desconocido (¿cómo influye bioquímicamente el corcho?, algunos prefieren el tapón sintético, pero yo me quedo con el primero). La composición del vino depende tanto del varietal de uva utilizada como de las condiciones de fermentación en barrica del vino en la Bodega (envejicimiento oxidativo en barrica). Pero el vino en la botella que compramos en el super o en la vinoteca, también está influido por el proceso de distribución y almacenaje desde la Bodega hasta el lugar donde es expuesto para su venta. Son especialmente importantes las variaciones o fluctuaciones de temperatura. El embalaje del vino también influye.

Bodega típica de Soria. Study of the thermal behaviour of traditional wine cellars: the case of the area of “Tierras Sorianas del Cid” (Spain).

El modelo más simple del envejecimiento de un vino en función de la temperatura es la ley de Arrhenius, que asume la tasa de activación o reactividad de una ecuación química crece exponencialmente con la temperatura. Este modelo ha sido aplicado sobre todo al envejecimiento del vino en barrica. M. Ruiz de Adana, L.M. López, J.M. Sala, “A Fickian model for calculating wine losses from oak casks depending on conditions in ageing facilities,” Applied Thermal Engineering, Volume 25, Issues 5-6, April 2005, Pages 709-718, aplican este modelo en un contexto espacio-temporal, ley de difusión de Fick, aunque como son ingenieros, se centran en las pérdidas de vino durante el envejecimiento en barrica, que provocan “pérdidas” económicas a las bodegas (se pierde entre el 1% y el 9% del vino de la barrica dependiendo de las condiciones ambientales). En concreto, su modelo predice la cantidad de vino que se pierde por difusión en las paredes de la barrica y por evaporación en el aire en función de las condiciones de temperatura, humedad relativa, y velocidad del aire en la bodega. Los parámetros del modelo difusivo desarollado son ajustados mediante datos experimentales y validados con medidas experimentales independientes.

A quien disfruta del vino quizás le guste más el artículo, sin matemáticas, de Teresa Garde-Cerdán, Carmen Ancín-Azpilicueta, “Review of quality factors on wine ageing in oak barrels,” Trends in Food Science & Technology, Volume 17, Issue 8, August 2006, Pages 438-447, que presenta en detalle el estado actual de conocimientos sobre cómo influye la composición de la madera de la barrica en la calidad del vino resultante. ¿Pero cómo influye la barrica en el futuro envejecimiento del vino en botella? Pocos estudios hay sobre este proceso, pero quizás destaque M. Del Alamo Sanz and I. Nevares Domínguez, “Wine aging in bottle from artificial systems (staves and chips) and oak woods Anthocyanin composition,” Analytica Chimica Acta, Volume 563, Issues 1-2, 23 March 2006, Pages 255-263, aunque sólo se centran en la evolución de la antocianina en la botella, mostrando que los niveles de la misma decrecen ligeramente menos si el roble de la barrica era francés comparado con el americano o el húngaro.

SONETO DEL VINO

¿En qué reino, en qué siglo, bajo qué silenciosa conjunción de los astros, en qué secreto día que el mármol no ha salvado, surgió la valerosa y singular idea de inventar la alegría?

Con otoños de oro la inventaron. El vino fluye rojo a lo largo de las generaciones como el río del tiempo y en el arduo camino nos prodiga su música, su fuego y sus leones.

En la noche del júbilo o en la jornada adversa exalta la alegría o mitiga el espanto y el ditirambo nuevo que este día le canto otrora lo cantaron el árabe y el persa. Vino, enséñame el arte de ver mi propia historia como si ésta ya fuera ceniza en la memoria.

Jorge Luis Borges

Me ha gustado la foto, portada en (c) wine blog

A veces los trabajos científicos que se leen en revistas de Matemáticas te dejan con la boca abierta… así que es preferible tener una botella de vino al lado con la que disfrutar a gusto. ¿Has observado alguna vez burbujas en una etiqueta mojada de una botella de vino? Como, por ejemplo, éstas en una botella de “clarete” australiano.

¿A qué se deben dichas burbujas? ¿Cómo actúa el agua en conjunción con el pegamento de la etiqueta para producirlas? ¿Tiene suficiente agua el pegamento para producirlas, o es necesario que la botella se encuentre un ambiente con alto grado de humedad? Por supuesto, si prefieres beber acompañado tendrás mejores cosas que preguntarte ante una buena copa de vino, pero si estás solo, por lo que sea, por qué no pensar en ello. Bueno, el artículo P. Broadbridge, G. R. Fulford, N. D. Fowkes, D. Y. C. Chan, and C. Lassig, “Bubbles in Wet, Gummed Wine Labels,” SIAM Review, Volume 41, Issue 2, Pages 363-372, 1999, nos ofrece una respuesta.

El artículo, cuya lectura es sencilla y la recomiendo a todos los interesados, muestra que la formación de burbujas en la etiqueta es debida a la absorción de agua por el papel que se encontraba disuelta en el pegamiento, acompañada dicha absorción por una expansión hidroscópico de dicho papel. La mayor parte de este agua no es absorbida por el papel sino que se evapora hacia el exterior generando las fuerzas de presión que “despegan” el papel en el centro de la burbuja. Los autores presentan un modelo de lubricación (una de las aproximaciones más sencillas en mecánica de fluidos) para las “tiras” de pegamento con la que se impregna la etiqueta en una cámara de presión que logra que ésta se pegue uniformemente en la botella. De hecho, tras el pegado, todas las etiquetas quedan “perfectamente” lisas. Sin embargo, alrededor del 5% acaban generando las tan temidas burbujas. Para el estudio del desarrollo de la burbuja, los autores aplican la teoría del pandeo (buckling) de estructuras mecánicas elásticas para explicar cómo la expansión del papel genera la burbuja. La geometría del modelo es muy sencilla, pero no por ello menos efectiva. El artículo merece la pena, ilustrando cómo un modelo matemático sencillo puede aportar mucha información sobre un problema real de importancia tecnológica (de hecho la industria enológica o vinatera australiana tiene ciertas pérdidas achables a devoluciones de lotes de botellas en las que aparecen estas burbujas con mayor frecuencia estadística de la habitual, ocurre en 1 de cada 20 cajas de botellas).

Es bonito la historia de este artículo. En un congreso organizado por el Grupo de Estudio de Problemas Matemáticos en la Industria Australiano (en concreto, el 1996 “Australian Mathematics-in-Industry Study Group, MISG) fueron invitados diferentes representantes de la industria que ofrecieron a los 160 matemáticos participantes problemas que ellos consideraban interesantes y a la vez importantes. Herbert Hruby, de las bodegas Southcorp Wines Pty. Ltd., presentó este problema. Los matemáticos se repartieron en grupos que se reunieron en varias sesiones regularmente con objeto de resolver este problema, y otros también propuestos. Este problema en concreto atrajo a una docena de matemáticos a “tiempo completo” y al menos otros doce que “revolotearon” por varios problemas.

¿Por qué (muy raras veces) vemos el Sol azul o la Luna azul? Como la espectacular foto de un Sol azul en un marco de pirámides (arriba) o la foto de la Luna azul mediante telescopio (abajo). Una explicación sencilla aparece en la Nota de Peter Pesic, “A simple explanation of blue suns and moons,” EUROPEAN JOURNAL OF PHYSICS, 29, N31-36, 2008 , basado en el uso de ideas simples sobre la difracción de ondas: cuando la luz pasa por un medio con partículas con un tamaño similar a su longitud de onda, los máximos de difracción más fuertes permiten el paso de las longitudes de onda más cortas (hacia el azul) y la dispersión hacia el cielo circundante de las más largas (otros colores). El resultado es una inversión de los colores que normalmente vemos en el cielo, apareciendo el Sol o la luna azul, en lugar del cielo.

Esta situación física es similar a la que observamos en las cajas acústicas de nuestro equipo de sonido. Los altavoces dispersan los sonidos que emiten en un cono más estrecho conforme más agudo (alta frecuencia) es el sonido emitido. Por ello, los “tweeters” (altavoces o vías de agudos) tienen pequeños aberturas para dispersar más ampliamente, gracias a la difracción del sonido, los agudos, mientras que los “woofers” (altavoces o vías de graves) tienen un tamaño mucho mayor para lograr lo mismo con las frecuencias bajas.

Considerando que las partículas que dispersan la luz son circulares, el primer anillo oscuro en la curva de difracción tiene un ángulo θ (medido a partir de la dirección de visión) dado por seno(θ) = 1.22*λ/(2a), donde 2a es el diámetro de la partícula, λ es la longitud de onda de la luz, y el factor 1.22 proviene de una consideración detallada de las funciones de Bessel que aparecen en la teoría de la difracción (el artículo muestra algunos detalles más, pero no muchos más; aún así la teoría es ampliamente conocida en óptica ondulatoria). Fáclimente deducimos que la luz emitida por cada punto del disco visible del Sol, por ejemplo, que pasa por una atmósfera en la que se encuentran en dispersión partículas cuyo radio es cercano a 500 nm (nanómetros) se dispersará con un ángulo para las frecuencias azules θ(azul) = 35◦, que es mucho menor que para las frecuencias rojas θ(rojo) = 52◦. De esta forma, el disco solar visible en la dirección en la que miramos aparecerá mucho más azul, mientras que la luz dispersada en otras direcciones aparecerá más roja. Por ello, a veces, el Sol azul se observa rodeado de sombras de tonos rojizos, rosados, o incluso amarillentos. Ver la foto de arriba.

Esta explicación simple tiene la ventaja que justifica fácilmente la rareza del fenómeno. Es raro que las partículas atmosféricas tengan un tamaño tan pequeño, cercano a los 500 nm. Por supuesto, este fenómeno puede ser recreado fácilmente en el laboratorio, con humo o con partículas de poliestireno suspendidas en agua. En resumen, tanto la Luna azul como el Sol azul ocurren porque la luz de longitud de onda similar al radio de las partículas de la atmósfera en que es dispersada pueden “rodear” a la partícula de tal forma que generan una interferencia constructiva que intensifica ciertas frecuencias en detrimento de otras, dependiendo del tamaño de éstas.