El doctor Humberto Michinel del laboratorio de óptica de la Universidad de Vigo introdujo (descubrió) en 2002 (Phyiscal Review E) un fenómeno curioso en medios ópticos fuertemente no lineales que incluyen simultáneamente no linealidades cúbicas y quínticas pero de signo opuesto (el índice de refracción “efectivo” no lineal es de la forma n = n0 + n2 I – n4 I^2, donde I es la intensidad de la señal). En sus simulaciones numéricas, la luz se condensaba como un líquido y se comportaba ante colisiones con los contornos del cristal como si tuviera tensión superficial, como si fueran “gotas” de luz. A este fenómeno le denominó LUZ LÍQUIDA. Aquel año hubo mucho “movimiento” mediático al respecto. Hasta el momento la luz líquida no ha sido demostrada en el laboratorio (es difícil encontrar un material con las propiedades ópticas no lineales adecuadas). En castellano es interesante el artículo de Humberto en la Revista Española de Física. Humberto cree que sus gotas líquidas podrán ser la base de futuros ordenadores completamente ópticos.

dibujo24ene2008michinel.jpg

El concepto de “luz sólida” fue introducido en un artículo científico de 2006 cuyo título (al contrario que el PRE de Humberto) no hacía referencia explícita al nuevo concepto (“Quantum phase transitions of light“, Greentree, Tahan, Cole, Hollenberg, Nature Physics, 2006). En la luz en el vacío los fotones interactúan muy poco entre sí, sin embargo, en ciertos medios “no lineales” los fotones interactúan con la red del medio y exhiben comportamientos fuertemente correlacionados. La luz sólida requiere un material con una red bi-dimensional de “agujeros” (cavidades ópticas) en la que cada cavidad contiene luz atrapada (por ejemplo, un átomo con dos niveles atómicos que permite “bloquear” los fotones entre esos estados cuánticos). Los fotones atrapados se comportan como partículas (polaritones) que interactúan fuertemente entre sí. Greentree et al. demostraron teóricamente (algo que Humberto no ha podido hacer con su luz líquida) que los fotones sufren una transición de fase cuántica entre un estado superfluido (los polaritones están deslocalizados por toda la red) y un estado de aislante (ferromagnético) de Mott (algo parecido ocurre en superconductores de alta temperatura), en lenguaje llano, algo parecido al cambio entre “agua y hielo”. Una explicación sencilla, en inglés, la encontraréis aquí. Los autores, como Humberto, también aluden a futuras aplicaciones en ordenadores completamente ópticos (uno de los grandes temas estrella de los últimos años en óptica no lineal). Todavía no se ha logrado obtener luz sólida en experimentos, pero parece que las técnicas de cavidades ópticas posibilitarán en los próximos años acercar espacialmente múltiples cavidades y lograrán verificar (o refutar) los resultados teóricos obtenidos.

¿Qué más nos puede deparar la luz? Quién sabe.

La compañía canadiense D-Wave Systems, anunció el 13 de febrero de 2007 el desarrollo del primer computador cuántico “comercial” llamado Orion de sólo 16 qubits y el 12 de noviembre del mismo año el primer ordenador cuántico de 28 qubits. Su idea es tener un ordenador con 512 qubits disponible en el verano de 2008 y uno de 1024 para finales del mismo. Hasta ahora el ordenador “cuántico” de D-Wave se ha utilizado como oráculo “cuántico” de un programa clásico para resolver algunos problemas sencillos (resolver un sudoku o búsqueda de patrones en imágenes). Para estos problemas la “nueva máquina” es más lenta que un ordenador convencional, pero es de esperar que conforme el número de qubits aumente se obtenga algún tipo de speedup “cuántico”.

FOTO DE UN “CHIP” de ORION

El ordenador Orion de D-Wave se basa en el concepto de computación cuántica adiabática. Propuesto por Farhi, Goldstone, Gutmann y Sipser en el 2000 (“Quantum Computation by Adiabatic Evolution“), este tipo de computación se basa en construir un Hamiltoniano que “físicamente” represente el problema a resolver de tal forma de que su evolución lenta en el tiempo corresponda a una búsqueda de la solución óptima al problema. La idea fue propuesta inicialmente para resolver problemas de satisfacibilidad NP en tiempo polinomial, partiendo de un Hamiltoniano fácilmente construible, el sistema evoluciona hacia el estado final deseado que es solución del problema. También se ha propuesto para resolver el problema del viajante (“Quantum Adiabatic Computation and the Travelling Salesman Problem“, Kieu, 2006), como oráculo “eficiente” de un ordenador clásico.

FOTO del LAYOUT de los 16 QUBITS del ORION

La computación adiabática también permite resolver otro tipo de problemas como los problemas de búsqueda. Mediante una elección adecuada del Hamiltoniano dependiente del tiempo se puede buscar un dato concreto en una base de datos no estructurada en una unidad de tiempo fija, independiente del número de elementos de dicha base de datos (al contrario que el algoritmo de Grover que requiere un número O(sqrt(N)) de operaciones, o un algoritmo clásico que requiere al menos O(N) operaciones) (“Rapid Data Search using Adiabatic Quantum Computation“, Ahrensmeier, Das, Kobes, Kunstatter, Zaraket, 2002). De hecho, ciertas críticas al Orion de D-Wave como ordenador cuántico adiabático es que utiliza el algoritmo de Grover, en lugar del algoritmo más eficiente posible. Lo que ha generado dudas (más aún cuando todavía no han publicado ningún artículo científico sobre Orion en ninguna revista de prestigio) sobre si Orion es realmente un ordenador cuántico adiabático o solamente un computador “clásico” que usa qubits superconductores (es decir, si hay o no entrelazamiento, entanglement, entre los qubits).

Una de las grandes esperanzas de la computación cuántica, la simulación del proceso cuántico de plegamiento de proteínas, también ha sido “atacado teóricamente” mediante computadores adiabáticos (“On the construction of model Hamiltonians for adiabatic quantum computing and its application to finding low energy conformations of lattice protein models“, Perdomo, Truncik, Tubert-Brohman, Rose, Aspuru-Guzik, 2008).

Desde el punto de vista de la potencia computacional, la computación cuántica adiabática es equivalente (polinomialmente) a la computación cuántica estándar (máquina de Turing cuántica de Deutsch) (“Adiabatic Quantum Computation is Equivalent to Standard Quantum Computation“, Aharonov, van Dam, Kempe, Landau, Lloyd, y Regev, 2004).

Por supuesto los computadores cuánticos adiabáticos también sufre el “gran mal” de la decoherencia (acoplamiento cuántico con el entorno) que introduce errores aleatorios en los estados internos de superposición (entanglement) del Hamiltoniano penalizando (o impidiendo) el desarrollo de computadores con un gran número de qubits (“Decoherence in a scalable adiabatic quantum computer“, Ashhab, Johansson, Nori, 2006, y “Decoherence in adiabatic quantum computation“, Amin, Averin, 2007), aunque trabajos anteriores proclamaban “incorrectamente” que eran más robustos ante los errores introducidos por la decoherencia (“Robustness of adiabatic quantum computation“, Childs, Farhi, Preskill, 2001).

En resumen, el futuro de los ordenadores cuánticos adiabáticos, como oráculos de computadores clásicos, es muy prometedor, aunque quizás los “anuncios” de D-Wave están muy mediatizados comercialmente y obtener ordenadores con miles de qubits está todavía muy lejos. Pero, quien sabe, Craig Venter y Celera Genomics aceleraron con su esfuerzo privado el Proyecto Genoma Humano, quizás Geordi Rose (CEO “técnico”) y Herb Martin (CEO “político”) logren que D-Wave acelere el desarrollo del primer ordenador cuántico útil en la práctica.

Hay muchos “inventores” de máquinas de generación de energía “gratis” (móviles perpetuos de segunda clase). Por ejemplo, la máquina gravitatoria (“gravity machine”) del Dr. Roderich W. Graeff, quien afirma que ha construido su máquina y que desde hace 2 años está extrayendo energía “gratis” de dicha máquina (“Since two years my Gravity Machine uses these temperature differences to generate electricity without the introduction of any energy from the outside!”). La idea de la máquina es que en un gas sujeto a un campo gravitatorio se genera un gradiente térmico del que se puede extraer energía (http://www.firstgravitymachine.com/temperaturedifference.phtml). ¿Es posible este efecto?

La idea de Graeff de extraer energía de un campo gravitatorio convirtiéndola en energía eléctrica es bastante vieja: ya Loschmidt (físico famoso del s. XIX en Termodinámica) y Maxwell se plantearon la posibilidad de que la gravedad genere un gradiente térmico en una columna de gas (lo que permite una máquina de movimiento perpetuo de segunda clase, es decir, que convierte espontáneamente energía en trabajo mecánico sin mediar gasto de combustible alguno).

Graeff ha calculado la diferencia de temperatura entre las placas de su máquina (dice que la ha medido experimentalmente en un experimento dotado de cierto “secretismo”, lo presenta en “su libro” pero en la web no quiere dar más detalles, yo no he leído su libro) para el aire de 0.014 ºK/m (grados Kelvin por metro de distancia entre placas)(http://www.firstgravitymachine.com/temperaturedifference.phtml).

Muchos otros “inventores” han propuesto motores basados en la gravedad que permiten convertir energía gravitatoria en mecánica, térmica, eléctrica, … (http://freeenergynews.com/Directory/GravityMotors/index.html).

¿Funciona esta máquina de movimiento perpetuo de segunda clase?

La respuesta oficial (que en opinión de un científico debe ser considerada correcta) es que NO FUNCIONA. ¿Por qué? La respuesta se encuentra en el artículo (dirigido a alumnos de física, por lo que es muy elemental) de Charles A. Coombes and Hans Laue, “A paradox concerning the temperature distribution of a gas in a gravitational field”, American Journal of Physics, Vol. 53, pp. 272-273, 1985 (http://dx.doi.org/10.1119/1.14138).

En resumen la respuesta es como sigue: no se puede inferir del comportamiento de una sola molécula el comportamiento de un gas (aunque sea ralo). Una molécula individual sí “sufre” el efecto por el principio de conservación de la energía, pero cuando este efecto se promedia a todas las moléculas de un gas, no podemos sumar sus contribuciones tal cual (obtiendo energía “gratis”), si no que hay que realizar un cálculo (sencillo) teniendo en cuenta la distribución de velocidades de las moléculas en un gas según las leyes de la Termodinámica Estadística, y el resultado es que en el promedio el resultado neto es nulo. De hecho, la densidad (y presión) del gas sí varía con la altura debido al campo gravitatorio (fórmula barométrica) pero no la temperatura, que se mantiene constante. Por tanto, entre dos placas a la misma temperatura, pones un gas a dicha temperatura, sujeto a la ley de la gravedad, y no hay ninguna transferencia neta de calor entre ambas placas mediada por el gas. La máquina NO FUNCIONA.

Sobre la fórmula barométrica es recomendable el artículo de Mario N. Berberan-Santos et al., “On the barometric formula”, American Journal of Physics, Vol. 65, pp. 404-412, 1997, http://dx.doi.org/10.1119/1.18555. Para un gas bastante ralo, no se pueden aplicar directamente las leyes termodinámicas (pues suponen que un estado de equilibrio) sino que hay que aplicar las leyes de la cinética molecular (ecuación de Boltzmann y sus variantes). La solución “correcta” de estas ecuaciones requiere de simulaciones numéricas moleculares basadas en métodos de Montecarlo. Estas simulaciones confirman la fórmula barométrica, como muestra Filippo G. E. Pantellini, “A simple numerical model to simulate a gas in a constant gravitational field”, American Journal of Physics, Vol. 68, pp. 61-68, 2000, http://dx.doi.org/10.1119/1.19374.

Hay artículos mucho más técnicos. El problema considerado en la “Gravity Machine” es clásico en la teoría cinética de los gases, se modela normalmente con la ecuación de Bhatnagar, Gross, y Krook (teoría o ecuación BGK) que es una simplificación de las ecuaciones de Boltzmann para el problema de la transferencia térmica entre dos placas conductoras de calor entre las que se encuentra confinado un gas ralo inerte. El comportamiento de este sistema ha sido estudiado tanto teórica como experimentalmente por muchos autores desde mediados del s. XX (podría conseguirte un gran número de referencias, pero creo que son demasiado técnicas). Además, en las dos últimas décadas, también ha sido estudiado este problema a escala micrométrica e incluso nanométrica. Y los resultados muestran que el efecto predicho por Graeff no existe (ni siquiera en el caso nanométrico, donde el gas se comporta de forma bastante complicada, como un gas de tipo van der Waals, muy alejado de un gas ideal y de las consideraciones de “principiante” que utiliza Graeff). Una referencia reciente, aunque quizás también muy técnica, es el libro “Microscale and Nanoscale Heat Transfer” editado por Sebastian Voltz, publicado por Springer Verlag en 2007, que en su capítulo 2 trata este tema.

En resumen, la “gravity machine”, máquina de aprovechamiento de energía gravitoria gracias a la cinética molecular, no funciona. Como se ha demostrado experimental y teóricamente en la segunda mitad del s. XX, incluso si se tienen en cuenta efectos cuánticos. Ver, por ejemplo, “Classical and quantum study of the motion of a particle in a gravitational field”, Journal of Mathematical Chemistry, Vol. 37, 2005, http://www.springerlink.com/content/u72245745531345l/fulltext.pdf).

Las teorías de Lin Chen proponen que nuestros cerebros son analizadores topológico-geométricos de la realidad. Nuestro cerebro, primero analiza la topología de la escena y sólo después analiza la información geométrica contenida en ella (“Holes, objects, and the left hemisphere”, Sheng He, PNAS, 2008). Todos somos topólogos. ¡ Quíén lo hubiera dicho !

La teoría de percepción topológica propuesta por Lin Chen (“Topological structure in visual perception”,Science,1982), ha tratado de demostrar que el funcionamiento de nuestro sistema de percepción visual se basa en la percepción de ciertas características topológicas de los objetos (invariantes topológicos) y su posterior “adorno” con información geométrica, contextual y semántica (“The topological approach to perceptual organization”, Visual Cognition, 2005). Uno de los últimos trabajos de Chen (“Global topological dominance in the left hemisphere”, PNAS, 2007) descubre que la percepción topológica del hemisferio izquierdo es mejor que la del derecho (al menos para los diestros estudiados).

dibujo24ene2008cerebro.jpg

La figura muestra los resultados de aplicar la técnica de imagen de resonancia magnética funcional (f-MRI) en las áreas de la corteza cerebral de sujetos diestros. En el caso A, la discriminación entre un triángulo y una flecha, sólo una región del hemisferio izquierdo es activada en 14 de los 15 sujetos estudiados. En el caso B, estudiaron la discrimináción entre un anillo (circunferencia, agujero) y una letra S (“sin agujeros”), y la imagen muestra que prácticamente la misma zona del hemisferio izquierdo es la que se activa. De las figuras A y B, los autores deducen que la percepción de diferencias topológicas (número de agujeros, relación dentro/fuera) está claramente situada en el hemisferio izquierdo y activan regiones del cerebro específicos antes que las diferencias geométricas como la forma: triangular, circular, o cuadrada, o propiedades geométricas como la orientación, distancia, tamaño, simetría especular, paralelismo o colinelidad.

El gran problema de estos estudios es que no es posible encontrar ejemplos de figuras que difieran sólo en propiedades topológicas (características globales), pero que mantengan la misma geometría (características locales). Por lo que no se puede estudiar la importancia de la topología en la percepción de forma completamente aislada (sin tener en cuenta la información geométrica). El grupo de Chen trata de buscar señales en las imágenes f-MRI que se mantengan para diferentes geometrías pero que comporten una característica topológica común.

El descubrimiento de que el hemisferio izquierdo “es más topólogo” que el derecho (que “es más geométra”, aunque también “un poco topólogo”) no es una sorpresa, ya que muchos estudios en los últimos años han mostrado que para ciertas tareas un hemisferio se comporta mejor que para otras. Estos resultados del grupo de Chen son un arma de doble filo, ya que si ellos pretenden demostrar que la percepción de propiedades topológicas es el principio fundamental de la percepción, el hecho de que preferentemente lo haga sólo el hemisferio izquierdo indica que hay más de un principio fundamental, ya que la percepción visual no está completamente lateralizada en el cerebro. Sin embargo, sus trabajos sólo indican que hay cierta preferencia por la percepción topológica en el hemisferio izquierdo no que sea exclusiva de éste.

En resumen, yo ya lo sabía, “todos llevamos un topológo en nuestro interior” (aunque sólo algunos lo muestran explícitamente).

Hoy se ha celebrado en la E.T.S.I. Informática de la Univ. Málaga las I Jornadas de Alumnos de Informática sobre Juegos: Matemática Recreativa e Implementación de Videojuegos, organizadas por los profesores Antonio J. Fernández y Pablo Guerrero García. Las charlas han sido divertidas, mucho humor y muchas curiosidades, con lo que no nos hemos aburrido. El nivel técnico, un poco flojo, y se ha echado en falta un poco más de Implementación y poco menos de Catalogación. Pero la experiencia ha sido muy interesante. Los alumnos han presentado pósteres (en la cafetería) y comunicaciones orales (en un aula). La experiencia ha culminado con un merecido almuerzo de confraternación entre profesores (organizadores) y alumnos (participantes).

Bonita experiencia. Esperemos que se repita en próximos años.

El artículo “Why we live in the Computational Universe” de Giorgio Fontana se plantea la cuestión de cómo podemos diferenciar entre el Universo “de verdad” (real) de cualquier modelo del mismo (computacional, o tipo The Matrix) ejecutado por una Máquina de Turing (Computador) Universal. El autor propone que el descubrimiento de técnicas de optimización de código (reglas de “optimización” de las leyes físicas de la realidad) permite discriminar si nuestra realidad es fundamental o es el resultado de una computación en un ordenador. Es decir, como todo programador experto optimiza el código que produce, si nuestra Realidad parece optimizada entonces NO ES “real” (fundamental) o alternativamente si nuestra Realidad no está optimizada entonces es “real” (fundamental) o el programador que la ha programado es “muy malo”.

El autor va más allá aún, mencionando la paradoja de Einstein-Podolsky-Rosen (1935), la posibilidad de que la Mecánica Cuántica sea una teoría no local, permitiendo efectos a distancia que “violan” la relatividad especial, como un ejemplo de una propiedad “trivial” de que el universo es The Matrix, un universo computacional, ya que evidencia que el Universo está “optimizado”. Esta idea le lleva al autor a proponer la teoría del Universo Computacional (Cuántico) adquiriendo ideas previamente sugeridas por Seth Lloyd (el “grande” de la computación cuántica). La idea de Lloyd es que si The Matrix existe puede ser detectada mediante ondas gravitatorias. De hecho, la gravedad no se puede “cuantizar” porque es un ya es “producto” cuántico. Lloyd’s “A theory of quantum gravity based on quantum computation” presenta ideas sobre “it from qubit” (parafraseando el “it from bit” de Wheeler). Trataremos de ellas en otro blog.

En resumen, el artículo de Fontana es “pobre en ideas” pero resulta de lectura curiosa. ¡Ánimo a los curiosos!

La mecánica cuántica es la teoría “más” lineal de toda la Física. La evolución unitaria es completamente lineal y el principio de superposición que implica es clave, por ejemplo, en computación cuántica. Sin embargo, no es completamente lineal. El colapso de la función de onda, el efecto del observador sobre un sistema cuántico implicado por el principio de incertidumbre de Heisenberg, es un efecto claramente no lineal. Sin embargo, la mecánica cuántica es una teoría integrable.

Se han propuesto muchas versiones (correcciones o modificaciones) de la mecánica cuántica que introducen no linealidades. No todas son razonables. La más conocida fue la introducida por el genial Weinberg (Annals of Physics, 1989, Testing Quantum Mechanics), quien trata de contestar la pregunta, ¿qué tipo de términos no lineales puedo añadir a la ecuación de Schrödinger para la evolución unitaria de la función de onda cuántica que sean lógicamente consistentes con la interpretación estándar de la misma y por tanto que permitan su demostración/falsificación experimental? Weinberg se limita a presentar un ejemplo particular. Sin embargo, su ejemplo no es integrable.

La genialidad de Weinberg se muestra en que además de su modelo, lo acompaña de un posible experimento que permite determinar lo grande o pequeño de las posibles correcciones no lineales de la mecánica cuántica (Physical Review Letters, 1989, Precision Tests of Quantum Mechanics). En concreto, para una ión de Berilio en un reloj atómico, uno de sus niveles de energía coincide con el valor cuántico (lineal) con 21 dígitos decimales de exactitud, dejando el posible efecto de las correcciones no lineales a cambios en dígitos mayores del 23 (un resultado extremadamente pequeño).

La versión de Weinberg, como la mayoría de las demás, substituyen el hamiltoniano hermítico lineal por uno no lineal, ya que manteniendo la hermiticidad garantizan fácilmente la interpretación probabilística del módulo de la función de onda al cuadrado. Pero, también hay versiones con hamiltoniano no lineal no hermítico (Grigorenko, Quantum mechanics with a non-Hermitian Hamiltonian, Physics Letters A, 1993). Sin embargo, el gran problema, en nuestra opinión, es la falta de integrabilidad en estas ecuaciones lo que dificulta encontrar principios de superposición “no lineales” compatibles con el lineal de la teoría estándar

La materia oscura, invisible ópticamente pero que parece que conforma el 23% de todo el universo, se puede hacer visible gracias a sus efectos gravitatorios. La manera más sencilla es mediante su efecto como lente gravitatoria. Los modelos de simulación mediante ordenador para la formación de galaxias, cúmulos y demás grandes estructuras del universo, predicen que deben aparecer en los lugares donde hay acumulación de masa, que en el caso de incluir la materia oscura, son los lugares donde se encuentra mayores densidades de ésta. Cinco días de uso del telescopio espacial Hubble han permitido obtener la siguiente “fotografía” de los acúmulos de materia oscura (regiones rosadas) según cálculos utilizando lentes gravitorias débiles en una región de cielo que incluye el superclúster Abell 901/902, situado a unos 2.600 millones de años de luz de la Tierra.

dibujo18ene2008a.png

Este resultado no permite confirmar los previamente obtenidos mediante simulaciones numéricas, se requieren futuras confirmaciones mediante la observación de otros superclústeres, pero es una primera confirmación de que estas simulaciones no van desencaminadas. Una de las esperanzas en relación al LHC (Large Hadron Collider) en el CERN, que entrará en funcionamiento a finales de este año es que descubra una partícula nueva que sea un candidato a materia oscura (como el modelo frío, partículas lentas y pesadas, se prefiere al caliente, partículas rápidas y ligeras, es de esperar que la partícula “compañera” supersimétrica más ligera, que supera “claramente” los 100 GeV será una candidata firme).

Por supuesto, podemos dudar de la existencia de la materia oscura (durante gran parte del s. XIX se creyó en la existencia del éter, descartado a principios del s. XX) y hay muchas teorías, por ahora sugeridas por sólo una minoría de los investigadores, que permiten explicar todos los hechos experimentales atribuidos a la materia oscura pero sin ella. La que más me gusta son las teorías MOND (teorías de Newton modificadas) que avanzan un paso más allá de la idea de que la dependencia respecto del cuadrado de la fuerza de la gravedad de Newton es modificada a grandes distancias, idea que no funciona.

dibujo18ene2008b.png

En las teorías MOND (MOdified Newtonian Dynamics), desarrollados por Milgrom en 1983, se postula que aceleraciones minúsculas, por debajo de un valor crítico aM, las ecuaciones de tipo fuerza igual a masa por aceleración han de ser cambiadas, de hecho la atracción gravitatoria efectiva pasa de ser la aceleración newtoniana, sea aN, a aproximarse a la raíz cuadrada de aN por aM. Esta ley permite explicar fácilmente las curvas de velocidad de rotación frente a masa en galaxias espirales, la llamada ley de Tully-Fisher. La teoría MOND también podría explicar los efectos observados en la imagen del Hubble (artículo con la idea)

Andrew Wiles ya ha pasado a la historia de la Matemática de finales del s.XX gracias a su demostración de (un caso particular de) la conjetura de Taniyama-Shimura[-Ribet] (el caso particular) que es equivalente al último teorema de Fermat. La demostración es extremadamente difícil (sobre la idea). ¿En qué está trabajando ahora? Según el ISI Web of Science, tiene 7 papers, con índice de impacto (luego su índice h no puede superar este número). El primero altamente citado (302 veces), el último citado 18 veces. Cinco de ellos en Annals of Mathematics, con índice de impacto 2’oo, la segunda revista en Mathematics del JCR. El índice h muchas veces no nos permite deteminar la “calidad” de ciertos investigadores, como Wiles o el español Cajal, que publican poco pero bien. Está hecho para los que publican como “corredores de fondo”, publican mucho de forma sostenida en el tiempo. Andrew Wiles parece que ya “vive de las rentas”. Posiblemente, ser el matemático más famoso de las últimas décadas. El poder predictivo del índice-h (Does the h-index have predictive power?) adquiere una “excepción que confirma la regla”.

Desde hace 3 días, tengo gripe. Estoy a base de auto-medicación (anti-gripales y mucha agua) para no ser causa de mayores colapsos en nuestro sistema sanitario. Obviamente no engrosaré el listado de unas 3.000 muertes (en España) causadas por la gripe (más de 800.000 en todo el mundo). Mi caso tampoco será uno de los primeros de la gran pandemica que se espera cuando un virus de la gripe aviar (H5N1 o similar) se adapte a los humanos. Hace unas semanas se publicó un artículo muy interesante sobre el tema.

Para que un virus de la gripe se transmita de humano a humano causando una pandemia es necesario que sus proteínas de hemaglutinina (HA, una glucoproteína que se encuentra en la superficie del virus de la gripe, responsable de la unión del virus a la célula infectada) debe tomar una configuración especial. En el virus aviar, ciertos receptores de la HA tienen forma de cono, sin embargo, en el virus humano, estos receptores toman la forma de un paraguas.

dibujo15ene2008.png

http://www.nature.com/nbt/journal/v26/n1/abs/nbt1375.html

Gracias a la tecnología de microarrays de carbohidratos (glycan microarrays) se han comparado los receptores específicos de las HAs de cepas modernas con cepas que en el pasado causaron pandemias. Técnicas de minería de datos han permitido determinar que es la topología de los glicanos, y no el tipo de anclaje en sí, quien determina la posibilidad de que el virus de la gripe cruce de una especie a otra. Se espera que estos resultados sirvan para desarrollar técnicas de identificación de virus susceptibles de generar futuras pandemias.