Un descubrimiento sorprendente sobre la sandía, tan presente en nuestra dieta Mediterránea durante el verano español, contiene citrulina en su parte blanca, sugiere que los cocineros tendrán que empezar a considerar el diseño de platos culinarios basados en la sandía como “afrodisíaco”, ya que esta sustancia es la alternativa “del pobre” a las pastillitas azules para disfunciones eréctiles en hombres. ¿Será éste el secreto de la virilidad veraniega del “semental” ibérico para las veraneantes norteeuropeas en la Costa del Sol?

La sandía (Citrullus vulgaris Schrad.) era ampliamente conocida como fuente natural y rica del aminoácido no esencial citrulina. La citrulina es un alfa-aminoácido no proteico, importante intermediario en el metabolismo de la eliminación del nitrógeno, es decir, en el ciclo metabólico de la urea. Deriva de la ornitina y es precursor de la arginina, que es un relajante de los vasos sanguíneos y tiene muchos efectos benéficos para la salud. En mamíferos, la mayor fuente de citrulina es el intestino delgado. Se ha utlizado médicamente para diferentes síndromes y enfermedades. La L-citrulina se administra oralmente a niños y adolescentes para el tratamiento de ciertas anemias. También ha sido utilizada como suplemento para la mejora de la actividad sexual y la disfunción eréctil.

Entonces, la noticia no es tan novedosa como mucha gente cree…

El descubrimiento del Dr. Patil se ha “vendido” con “todo el marketing” que tiene que venderse, este año, en el que se le ha nombrado director del Vegetable and Fruit Improvement Center, de la Texas A&M University. ¿Por qué los americanos (él es de origen indio) son así? ¿Cuándo aprenderemos a “vendernos” los españoles de igual manera?

Pero, a muchos lo que os interesará saber es … ¿cuánta sandía hay que comer al día? Los estudios indican que los niveles máximos de citrulina en sangre se alcanzan con un consumo de 6 copas de zumo de sandía al día (Penelope Perkins-Veazie et al. “Watermelons and health,” Acta Horticulturae, 731: 121-127, 2007 ). Lo que no es poco.

Dibujo20130723 Figure shows two isospectral drums

¿Es posible distinguir la forma del tapete de un tambor escuchando sólamente el sonido que produce al ser golpeado? Desde 1991 se sabe que es imposible, en general, es decir, que hay tambores con diferentes formas que suenan exactamente igual. Como los de la figura de arriba cuyos modos normales de vibración tienen la misma frecuencia (“suenan” igual), aunque en la figura sólo se muestran los 4 primeros. Un artículo curioso sobre este tema lo tenéis en Ivars Peterson’s MathTrek, “Drums That Sound Alike,” April 14, 1997 .

Lo que hace que los sonidos producidos por dos tambores diferentes suene diferente son las frecuencias características de vibración de sus tapetes al ser golpeados, que dependen fundamentalmente del tamaño, forma, y tensión del tapete, así como de la forma de la baquete y el modo en que se golpea. El “color” sonoro de cada tambor depende de las diferentes frecuencias de vibración que son sonidos puros “formantes” del sonido. En 1966, Mark Kac se preguntó si el conocimiento de los modos normales de vibración, estas sonidos puros, producidos por un tambor era suficiente para determinar unívocamente su forma geométrica (“Can One Hear the Shape of a Drum?”). La resolución de este problema tuvo que esperar hasta 1991, cuando Carolyn S. Gordon y David L. Webb, descubrieron un contraejemplo, dos tambores con la misma área y perímetro pero con diferente geometría que mostraban exactamente el mismo espectro sonoro.

La imagen que inicia esta entrada es del artículo de Toby Driscoll, “EIGENMODES OF ISOSPECTRAL DRUMS,” SIAM REVIEW, Vol. 39, No. 1, pp. 1-17, March 1997 , que ha verificado numéricamente la igualdad de los espectros de frecuencia con hasta 12 dígitos de precisión. Hace tiempo que lo leí y la televisión esta noche me lo ha recordado. Algo bueno tiene que tener la televisión. ¿Que qué me lo ha recordado? Ya lo he olvidado.

Cortadura de más de 2 metros tras la gran avalancha observada en el Glaciar de Vallonnet, Francia, 4 abril 2007. La avalancha se produjo espontáneamente cuando mientras estaba lloviendo.

Las avalanchas de nieve son causadas cuando los cambios del tiempo (meteorológico) provocan que una bajada en la densidad de una capa de nieve o de hielo que se encuentra entre la nieve del fondo y la de la superficie, con lo que la capa de nieve de la superficie colapsa con un sonoro ruido o empieza a deslizar. ¿Qué determina la elección entre estos dos comportamientos? La mayoría de los investigadores opinaba que el ángulo de la pendiente es el determinante del comportamiento observado. Sin embargo, parece que no es así, como han demostrado J. Heierli, P. Gumbsch, M. Zaiser, “Anticrack Nucleation as Triggering Mechanism for Snow Slab Avalanches,” Science, Vol. 321. no. 5886, pp. 240-243, 11 July 2008 , quienes han analizado el proceso de fractura de la nieve usando un nuevo concepto, las antifisuras o anticracks, lugares donde el material se desplaza en la dirección opuesta a la normal para la propagación de una fisura (crack), lo que provoca una pérdida de cohesión y una reducción de la densidad de la nieve. De esta manera, fracturas lejanas pueden ser los causantes de una avalancha, de la misma forma que el aleteo de una mariposa puede provocar un huracán en el otro extremo del mundo (el famoso “efecto mariposa”).

Los investigadores han desarrollado un modelo matemático para la propagación de fracturas basado en minimizar un funcional de energía que conduce a ecuaciones de Euler-Lagrange diferentes en la región de la fisura que en el resto de la nieve, ecuaciones que han resuelto utilizando el método de elementos finitos. La nieve se modelo como un material granular formado por tres capas diferenciadas, la capa central es rígida pero puede colapsar y se encuentra entre dos capas, la inferior estática y la superior que puede deslizar (la avalancha). En cada capa suponen que los parámetros del material (densida, módulo de Young, modulo de cizalla y cociente de Poisson) son constantes pero diferentes entre una capa y otra. En las regiones de contacto entre capas consideran fuerzas de fricción de tipo Coulomb. La información suplementaria al artículo es bastante clara en la presentación del modelo matemático (y es de acceso gratuito incluso si no tienes suscripción).

El modelo predice que el proceso de avalancha ocurre en dos etapas. En la primera, se forma el núcleo de la antifisura (anticrack), por una sobrecarga de la nieve o por precipitación, cuya longitud crece hasta alcanzar una longitud crítica. Este crecimiento de la antifisura es debido tanto a fuerzas perpendiculares y normales a la pendiente. En la segunda etapa, las fuerzas de contacto entre las capas de nieve en consideración modifican las condiciones de contorno, generando una inestabilidad que provoca la propagación de la fisura. Dependiendo de la fricción se producirá una avalancha (si es pequeña) o sólo se producirá un “aviso” (una avalancha fallida) que generará un sonoro ruido. Este modelo en dos etapas explica varios fenómenos curiosos. Por ejemplo, por qué ciertas fracturas de la nieve no provocan avalanchas (la antifisura se propaga sin generar una avalancha), o por qué esquiadores que se mueven lejos, en zonas planas o con poca pendiente, pueden ser la “mariposa” cuyo aleteo provoca la avalancha (el esquiador genera una antifisura que se propaga sin avalancha hasta alcanzar, lejos, un terreno suficientemente inclinado como para producir la avalancha).

En resumen, el nuevo modelo predice que no hay una pendiente crítica a partir de la cual se propagan las fisuras generando una avalancha. Esto es importante para los esquiadores ya que las señales sonoras que advierten de posibles avalanchas, que en terreno con poca pendiente suelen ser tratadas como en la fábula de “Pedro y el lobo”, no pueden ser consideradas como del todo inofensivas, más bien al contrario. Este nuevo modelo sustenta teóricamente muchas de las ideas que se barajan en el campo de experimental sobre predicción de avalanchas, donde la “experiencia” es un grado. Habrá que estar “al loro” para ver si el modelo ayuda al desarrollo de mejores modelos por ordenador prognósticos y predictivos de avalanchas (quizás apoyados con datos satelitales o de estaciones de vigilancia específicas).

Una “anaconda” de goma puede extraer energía eléctrica de las olas del mar y ser competitiva como nueva fuente de energía, según comenat Jane Reck, “Rubber ‘snake’ could help wave power get a bite of the energy market,” ScienceX2 news, 2008 , esta innovadora tecnología británica de diseño “ultrasimple” promete producir energía eléctrica limpia a un coste muy bajo.

“Anaconda” es un largo y fino tubo de goma relleno de agua y cerrado por sus dos extremos, anclado en el mar para que flote por debajo de la superficie del mar, con uno de sus extremos en dirección hacia las olas. Cuando una ola incide en su extremo, deforma la “anaconda” produciendo un “bollo” que se propaga por toda su longitud a la misma velocidad que la ola, lo que hace que el “bollo” crezca conforme se propaga. Finalmente, el “bollo” llega el otro extremo donde incide sobre una turbina que acoplada a una dinamo produce electricidad. Como “Anaconda” es de goma, es mucho más barata de fabricar y mantener que otros dispositivos de extracción de energía de las olas.

Por ahora, “Anaconda” sólo ha sido probada en laboratorio (se encuentra en la fase de desarrollo, la D de la I+D+i “inventada” por nuestro ex-presidente Aznar). Los investigadores de una empresa privada y de la Universidad de Southampton ya se han embarcado en un programa para diseñarla a gran escala y desarrollar experimentos en mar abierto. Una “Anaconda” en funcionamiento práctico tendrá unos 200 metros de longitud y unos 7 metros de diámetro, encontrándose sumergida entre 40 y 100 metros de profundidad. Las estimaciones por ordenador indican que producirá, a pleno rendimiento, un megawatio (1MW) de electricidad (el consumo de unos 2000 hogares) con un coste estimado de 3 céntimos de euro por kilowatio/hora (kWh). Este coste es casi el doble que el coste de generar electricidad en centrales hidroeléctricas, pero aún así es muy favorable cuando se compara con otras tecnologías de extracción de energía eléctrica de las olas.

Más información (y animación QuickTime del prototipo): “ANACONDA. WAVE ENERGY BULGING SNAKE“.

Más información sobre Anaconda. Otro videoclip animado (aquí).

Noticia en el periódico El Mundo.

Otra tecnología similar (Pelamis, la serpiente robotizada que extrae energía de las olas) pero de mayor costo de construcción y dificultad de diseño e implementación práctica.

La computación cuántica suele estar asociada al entrelazamiento (entanglement), es decir, la evolución (unitaria se dice) de estados cuánticos puros (sin ruido). El entrelazamiento es el responsable del gran speedup de estos ordenadores respecto a los algoritmos clásicos. Sin embargo, mantener un gran número de cubits en un estado entrelazado es muy difícil, por lo que la computación cuántica basada en el entrelazamiento es muy susceptible a errores, de ahí la importancia de las técnicas de corrección de errores, hoy en día altamente estudiadas. Sin embargo, la computación cuántica sin entrelazamiento también es posible.

Una verificación experimental de este tipo de computación cuántica sin entrelazamiento en el diseño de puertas lógicas cuánticas aparece en B. P. Lanyon, M. Barbieri, M. P. Almeida and A. G. White, “Experimental quantum computing without entanglement,” ArXiv preprint, 4 jul 2008 . Los autores han implementado la puerta lógica cuántica que aparece más arriba, llamada DQC1 utilizando estados ruidosos (mezcla se dice). Esta puerta lógica funciona con cierta cantidad de entrelazamiento, aunque no un entrelazado completo, permitiendo resolver ciertos problemas mediante ordenadores cuánticos, aunque no un algoritmo arbitrario, ya que no es una puerta lógica cuántica universal. Los autores afirman que su puerta lógica es escalable, aunque esto lo tendrán que demostrar en el futuro.

La puerta lógica DQC1 comprende un único cubit en un estado puro (entrelazado) rodeado de un registro (serie) de cubits en estado completamente mezclado. Esta puerta lógica no es universal pero permite implementar algunos algoritmos para resolver algunos problemas no eficientes en un ordenador clásico (por ejemplo, la simulación de otros sistemas cuánticos). Más, aún la simulación mediante un algoritmo clásico de una puerta DQC1 parece ser que no es eficiente (aunque en general no está demostrada matemáticamente, nadie ha encontrado un algoritmo aún).

En resumen, interesante artículo que da un paso más en la línea del famoso artículo de Gilles Brassard et al. “Quantum Computing Without Entanglement,” Theoretical Computer Science, 320(1):15-33, 12 June 2004 , ArXiv preprint, así como con la computación cuántica adiabática, ver Lloyd “Quantum search without entanglement,” Phys. Rev. A 61, 010301, 1999 , ArXiv preprint.

El artículo de Jesús Guillera Goyanes, “Historia de las fórmulas y algoritmos para pi,” Gaceta de la Real Sociedad Matematica Española, 10(1):159-178, 2007, nos presenta algoritmos y fórmulas tan interesantes como los de Arquímedes, Viete, Wallis, Newton, Comtet, Gregory, Leibniz, Machin, Euler, e incluso Gauss y Ramanujan. Los algoritmos de Borwein están entre los más eficientes. El artículo acaba de ser traducido al inglés (“History of the formulas and algorithms for pi,” Jesus Guillera, ArXiv preprint, 5 Jul 2008 ).

A los interesados en el artículo también les gustará la propia tesis doctoral del autor, “Series de Ramanujan: Generalizaciones y conjeturas,” defendida el 2 de julio de 2007. El trabajo de Ramanujan todavía nos deparará muchas más sorpresas en el futuro.

Tampoco me puedo resistir a recomendaros el artículo “Fun with Fourier series,” Robert Baillie, ArXiv preprint, submitted on 1 Jun 2008 , del que extraigo la figura de abajo, como botón de muestra.

Saber exactamente dónde se encuentran las interneuronas colinérgicas en el estriado ayudará a descubrir el origen de ciertas patologías psiquiátricas, como la esquizofrenia.

La elaboración de mapas de distribución de ciertos tipos de neuronas, en concreto de las interneuronas colinérgicas, podría aclarar la causa de la aparición de algunas enfermedades mentales, como la esquizofrenia. Así se ha puesto de manifiesto en un estudio dirigido por Javier Bernácer, biólogo e investigador del laboratorio de Neuromorfología Funcional de la Clínica Universitaria de Navarra.

En el trabajo, que se publica en PLoS ONE, han colaborado los doctores José Manuel Giménez Amaya y Lucía Prensa, de la Universidad Autónoma de Madrid. El trabajo se ha centrado en el estudio de la distribución de este tipo de neuronas, las interneuronas colinérgicas (que utilizan acetilcolina como neurotransmisor) en el estriado, una estructura cerebral subcortical donde coexisten diferentes tipos de neuronas.

“En concreto, el estriado es el área cerebral en la que se planifican los movimientos voluntarios, además de estar implicada en su programación y en el modo de ejecutarlos”, ha explicado Bernácer.

Procesos

Se trata de una estructura en la que se producen también procesos cognitivos y emotivos. Es un núcleo cerebral en el que ocurren procesos de tipo asociativo, sensorimotores y límbicos. El estriado es un área muy extensa; en concreto, es el mayor de los núcleos subcorticales del cerebro. El trabajo ha consistido en investigar si las interneuronas colinérgicas se distribuyen en él de forma homogénea o si su cantidad varía según las regiones.

Cabe señalar que estas interneuronas son las encargadas de la organización interna del estriado; en definitiva, organizan y regulan su funcionamiento. Además, las colinérgicas están implicadas en diferentes procesos de aprendizaje, sobre todo en la respuesta a estímulos externos que conlleva la obtención de una recompensa, “y en lo que más nos interesaba a nosotros, en la aparición de enfermedades mentales como la esquizofrenia”.

En concreto, se ha podido demostrar que en ciertas regiones existe una pérdida de este tipo de neuronas, por lo que se sabe que podrían estar implicadas en el desarrollo de algunas enfermedades psiquiátricas.

La principal conclusión obtenida del estudio revela la existencia de una distribución heterogénea de las interneuronas colinérgicas en todas las regiones del estriado. Además, el trabajo ha podido constatar que, en general, la mayor densidad de interneuronas se concentra en la zona posterior de este núcleo cerebral, una región que “suele quedar fuera de muchos estudios. El ensayo destaca la importancia de las regiones posteriores del estriado y la necesidad de que se tengan en cuenta, tanto en estudios funcionales como en patológicos”.

Para la investigación se ha utilizado como metodología la estereología que “es la más adecuada para hacer recuento de neuronas, ya que permite hacerlo en una estructura tridimensional, en un determinado volumen, como el que tienen los pequeños cortes de cerebro con los que trabajamos”.

Mejor recuento

A partir de estas muestras se hace una estimación del número de neuronas que hay en cada milímetro cúbico de ese tejido. “En definitiva, se trata de contar la cantidad de neuronas existentes en una fracción del tejido y a partir de ahí hacer una estimación de las que hay en todo el núcleo”.

En esta primera fase el estudio se ha practicado en cerebros sanos. El siguiente objetivo será investigar la distribución de las interneuronas colinérgicas en el estriado de cerebros patológicos, por ejemplo de esquizofrénicos o de personas con otras enfermedades mentales, y comparar los resultados con los cerebros sanos ya estudiados. Para obtener muestras de cerebros de pacientes será muy útil la colaboración con los otros.

Comentario de Jose Megias Verges “elevado” a entrada.

Noticia relacionada: Logran elaborar mapas neuronales para descubrir el origen de la esquizofrenia, Clínica Universitaria, Universidad de Navarra.

Artículo original: PLoS ONE, published 14 Nov 2007, “Cholinergic Interneurons Are Differentially Distributed in the Human Striatum,” Javier Bernácer, Lucía Prensa, José Manuel Giménez-Amaya.

La geometría en el s.XIX recorrió un “extraño” camino. De la geometría euclidiana, aparentemente la geometría del mundo que nos rodea, bien fundamentada axiomáticamente pero con la “lacra” del axioma de las paralelas, ¿es un teorema? ¿debe ser un axioma? ¿podemos definir geometrías que no lo cumplan? Gauss, la “zorra” de las matemáticas, que borraba con su “rabo” las huellas de su pensamiento, aunque gracias a su diario personal, recuperado más tarde, aunque de forma incompleta, sabemos que demostró que era posible una geometría con una variante de dicho axioma, válida para la esfera (durante muchos años, Gauss se dedicó a la geodesia). Otros la descubrieron más tarde, la geometría no euclídea, junto a otras variantes, nombres como Lobachevsky o Bolyai.

¿Pero qué hace que una teoría matemática sea o describa una geometría? El programa de Erlangen de Klein nos ofrece una respuesta. Un conjunto de objetos invariante ante la acción de un grupo ES una geometría, por lo que se denominan a las acciones del grupo como transformaciones “geométricas.” La teoría de grupos, que Galois elevó a la gloria del álgebra, era elevada por Klein al cielo de la geometría. Ya en el s.XX, la teoría de semigrupos la elevaría al sumum del análisis. La teoría de grupos como metamatemática. ¡Qué pensaría Klein de los fractales!

El libro “Indra’s Pearls: The Vision of Felix Klein,” de David Mumford, Caroline Series y David Wright, Cambridge University Press, 2002 , merece, en este sentido, una lectura cuidada y un disfrute gráfico con sus impresionantes figuras (como la mayoría que adornan los libros sobre fractales, de gran belleza y profundidad geométrica). La página web que los autores del libro han preparado, nos ofrece gratuitamente más perlas. En este libro, los matemáticos disfrutarán de los grupos de Schottky, un tipo de transformación de Möbius, también llamados grupos kleinianos.

La gran belleza “matemáticas” de los fractales es que normalmente están asociados a los números complejos y estos son la manera “ideal” de representar los números. De ello ya se dió cuenta Cardano, que codescubrió cómo reolver ecuaciones polinómicas de grados 3 y 4 de forma general. Sin embargo, su fórmula tenía un grave problema. A veces “no era aplicable”. Un ejemplo sencillo es el polinomio , cuya raíz entera igual a 4 no es fácilmente “visible” en el resultado obtenido utilizando la fórmula del propio Cardano, en concreto, la fórmula siguiente

. Los que conocen los números complejos sabrán que ambos resultados son equivalentes. A los que no, les recomiendo “aprenderlo” (merece la pena, “El Camino a la Realidad,” Roger Penrose, es un buen punto de partida para entender cómo los números complejos son “el lenguaje numérico” de la realidad). Cardano se vio “obligado” a “crear” (o quizás “descubrir”) los números complejos, que hasta Euler y Gauss, siglos más tarde, no ganaron el estatus que tienen hoy en día (que Penrose “disfruta” en su libro, un libro “disfrutón” donde los haya, aunqe pesa “demasiado” como lectura playera del verano).

Por cierto, yo leí “The Road to Reality” de Penrose al poco de salir en Gran Bretaña (encargé a un amigo que viajaba a Escocia que se hiciera con una copia para mí). “Supersesgado” hacia sus “twistors,” yo, que no soy “nadie”, hubiera escrito el mismo libro con un enfoque completamente diferente, sin embargo, he de reconocer que como “La nueva mente del emperador”, engancha, … “sesga” al lego… pero engancho incluso al técnico. Ya ha pasado a la la historia de la divulgación científica, no por lo que quiere Penrose, “reivindicar los twistors,” sino por que varias generaciones de jóvenes se formarán como físicos y matemáticos gracias a él. Amén, perdón, “que así sea,” en nombre de Penrose, digno hijo de su padre.

El índice H de una revista internacional no es fácil de calcular utilizando el ISI Web of Science, ya que requiere datos históricos acumulados. Sin embargo, el SCImago sí lo permite calcular (aunque sólo es el índice H desde 1994, dado que se basa en datos de Scopus de Elsevier). ¿Cuáles son las dos revistas de investigación más prestigiosas del mundo en la actualidad? La mayoría de nosotros pensará que son Nature y Science, quizás por este orden. ¿Qué dice el índice H de SCImago al respecto?

1. Nature, 531 artículos citados más de 531 veces, según SCImago 2007;

2. Science, 521.

5. PNAS (Proceedings of the National Academy of Sciences of the United States of America), 339.

11. Physical Review Letters, 268

Los interesados pueden consultar el listado completo.

No me “desagrada” este orden. ¿Qué pasa con las revistas de … pongamos, Computer Science?

1. Bioinformatics 111; 2. IEEE Transactions on Pattern Analysis and Machine Intelligence 111; 3 IEEE Transactions on Information Theory 102; 4 IEEE Journal on Selected Areas in Communications 101; 5 IEEE Transactions on Communications 92; 6 IEEE Transactions on Image Processing 88; 7 IEEE Communications Magazine 84; …

Tampoco, “chirría” este otro orden. ¿Y con las de Mathematics, Computational Mathematics?

1 SIAM Journal on Numerical Analysis 45; 2 Applied Mathematics and Computation 37; 3 Mathematics of Computation 32; 4 Numerische Mathematik 32; 5 Journal of Computational and Applied Mathematics 31; 6 Computers and Mathematics with Applications 30; …

No sé, no sé, me gusta menos, … quizás porque estoy acostumbrado al índice de impacto del ISI que las ordena de forma completamente diferente.

Todos tenemos preconcepciones. “Sabemos” qué revistas internacionales son más prestigiosas, independientemente de su índice de impacto, muchas tienen índices de impacto “ficticios” (ya que muchos editores se dedican a la ingeniería del índice de impacto). El trabajo de SCImago (de algunos amigos granadinos) me gusta. No “coincido” del todo con sus resultados, pero en muchos casos muestra ser más “fiable” con la “intuición”, menos “paradójico” que el índice de impacto, que este año en MATHEMATICS, APPLIED coloca a la “prestigiosa” (en “casa” del Editor Principal porque no lo es en ningún otro lugar) INTERNATIONAL JOURNAL OF NONLINEAR SCIENCES AND NUMERICAL SIMULATION, como la de mayor índice de impacto y con diferencia, con un índice de impacto “paradójicamente” enorme para el prestigio que tiene. Eso sí, si ojeas los últimos números, ciertos matemáticos “muy buenos” están publicando en ella, supongo que aprovechando la burbuja “especulativa” de su índice de impacto.

Tug-of-war (“esfuerzo supremo”) el nuevo “palabro” de moda en físico-química. Me debo estar haciendo viejo. “Tug-of-war” para referirse a un tipo de choque (dispersión o scattering). Todavía me maravillan los científicos con el “don” del “titular” (capaces de poner un título que llame la atención, aunque no explique de qué va el contenido de su artículo).

Me ha sorprendido leer en Nature, el News and Views de Mark Brouard “When molecules don’t rebound,” Nature 454, 43-45, 3 July 2008 . Supongamos que tenemos una molécula simple formada por dos átomos unidos por un enlace que se comporta como un muelle, ¿qué pasa si otro átomo choca con uno de los dos átomos anteriores? ¿Se comprime el muelle y la molécula doble vibra? ¡Tan claro como el agua! Pues parece que no está tan claro (el agua de hecho es trasparente). La noticia trata sobre el artículo Stuart J. Greaves et al. “Vibrational excitation through tug-of-war inelastic collisions,” Nature 454, 88-91, 3 July 2008 . Estudian la colisión entre un átomo de hidrógeno y una molécula formada por dos átomos de deuterio (hidrógeno pesado) y han encontrado que pueden ocurrir tres cosas, las dos primeras ya eran conocidas, o se produce una reacción química o se transfiere energía del átomo a la molécula sin que se forme o se rompa enlace alguno en un proceso completamente inelástico, pero la tercera es novedosa (de ahí que se haya publicado en Nature), se produce una excitación vibratoria de la molécula que han bautizado colisión inelástica ‘tug-of-war’ en al que el átomo “rebota” prácticamente en la dirección de incidencia y la molécula no “recula” sino que se mueve “hacia adelante”, totalmente al contrario de lo que nuestra intuición dicta (contrario a lo que pasaría con dos bolas de billar, por ejemplo).

¿Por qué ocurre algo tan extraño? Parece ser que cuando se aproxima el átomo de hidrógeno hacia la bimolécula de deuterio se producen enlaces químicos transitorios que hacen que se alargue el enlace que une los dos deuterios en la molécula (el muelle se estira en lugar de comprimirse, como indica la intuición), conduciendo al comportamiento “paradójico” observado. Greaves et al. describen el proceso como un mecanismo de “reacción frustrada,” como si se formara temporalmente un enlace (reacción química) que rápidamente se rompe. Las animaciones (arriba la primera) de la información suplementaria están disponibles en la web gratuitamente junto a una buena explicación.

Hablando de Tug-of-war también parece interesante el artículo, a publicarse en PNAS, Melanie J.I. Müller et al. “Tug-of-war as a cooperative mechanism for bidirectional cargo transport by molecular motors,” Proc. Natl. Acad. Sci. USA 105, 4609-4614 ( 2008 ), ArXiv preprint, donde estudian el transporte intracelular (a través de la membrana celular) basado en motores moleculares que actúan como gruas (gracias a fragmentos citoesqueléticos). Algunso de estos microtúbulos pueden actuar de forma bidireccional (hacia o desde el interior de la célula) gracias, presumiblemente, al fenómeno del “esfuerzo supremo” (tug-of-war) que así adquiere una aplicación biológica de extrema importancia. Este fenómeno es una fuente de energía para un motor molecular. Increíble, mi hijo, “enamorado” de las grúas como está, disfrutaría viendo estas grúas moleculares en acción.