Hoy se ha celebrado en la E.T.S.I. Informática de la Univ. Málaga las I Jornadas de Alumnos de Informática sobre Juegos: Matemática Recreativa e Implementación de Videojuegos, organizadas por los profesores Antonio J. Fernández y Pablo Guerrero García. Las charlas han sido divertidas, mucho humor y muchas curiosidades, con lo que no nos hemos aburrido. El nivel técnico, un poco flojo, y se ha echado en falta un poco más de Implementación y poco menos de Catalogación. Pero la experiencia ha sido muy interesante. Los alumnos han presentado pósteres (en la cafetería) y comunicaciones orales (en un aula). La experiencia ha culminado con un merecido almuerzo de confraternación entre profesores (organizadores) y alumnos (participantes).

Bonita experiencia. Esperemos que se repita en próximos años.

El artículo “Why we live in the Computational Universe” de Giorgio Fontana se plantea la cuestión de cómo podemos diferenciar entre el Universo “de verdad” (real) de cualquier modelo del mismo (computacional, o tipo The Matrix) ejecutado por una Máquina de Turing (Computador) Universal. El autor propone que el descubrimiento de técnicas de optimización de código (reglas de “optimización” de las leyes físicas de la realidad) permite discriminar si nuestra realidad es fundamental o es el resultado de una computación en un ordenador. Es decir, como todo programador experto optimiza el código que produce, si nuestra Realidad parece optimizada entonces NO ES “real” (fundamental) o alternativamente si nuestra Realidad no está optimizada entonces es “real” (fundamental) o el programador que la ha programado es “muy malo”.

El autor va más allá aún, mencionando la paradoja de Einstein-Podolsky-Rosen (1935), la posibilidad de que la Mecánica Cuántica sea una teoría no local, permitiendo efectos a distancia que “violan” la relatividad especial, como un ejemplo de una propiedad “trivial” de que el universo es The Matrix, un universo computacional, ya que evidencia que el Universo está “optimizado”. Esta idea le lleva al autor a proponer la teoría del Universo Computacional (Cuántico) adquiriendo ideas previamente sugeridas por Seth Lloyd (el “grande” de la computación cuántica). La idea de Lloyd es que si The Matrix existe puede ser detectada mediante ondas gravitatorias. De hecho, la gravedad no se puede “cuantizar” porque es un ya es “producto” cuántico. Lloyd’s “A theory of quantum gravity based on quantum computation” presenta ideas sobre “it from qubit” (parafraseando el “it from bit” de Wheeler). Trataremos de ellas en otro blog.

En resumen, el artículo de Fontana es “pobre en ideas” pero resulta de lectura curiosa. ¡Ánimo a los curiosos!

La mecánica cuántica es la teoría “más” lineal de toda la Física. La evolución unitaria es completamente lineal y el principio de superposición que implica es clave, por ejemplo, en computación cuántica. Sin embargo, no es completamente lineal. El colapso de la función de onda, el efecto del observador sobre un sistema cuántico implicado por el principio de incertidumbre de Heisenberg, es un efecto claramente no lineal. Sin embargo, la mecánica cuántica es una teoría integrable.

Se han propuesto muchas versiones (correcciones o modificaciones) de la mecánica cuántica que introducen no linealidades. No todas son razonables. La más conocida fue la introducida por el genial Weinberg (Annals of Physics, 1989, Testing Quantum Mechanics), quien trata de contestar la pregunta, ¿qué tipo de términos no lineales puedo añadir a la ecuación de Schrödinger para la evolución unitaria de la función de onda cuántica que sean lógicamente consistentes con la interpretación estándar de la misma y por tanto que permitan su demostración/falsificación experimental? Weinberg se limita a presentar un ejemplo particular. Sin embargo, su ejemplo no es integrable.

La genialidad de Weinberg se muestra en que además de su modelo, lo acompaña de un posible experimento que permite determinar lo grande o pequeño de las posibles correcciones no lineales de la mecánica cuántica (Physical Review Letters, 1989, Precision Tests of Quantum Mechanics). En concreto, para una ión de Berilio en un reloj atómico, uno de sus niveles de energía coincide con el valor cuántico (lineal) con 21 dígitos decimales de exactitud, dejando el posible efecto de las correcciones no lineales a cambios en dígitos mayores del 23 (un resultado extremadamente pequeño).

La versión de Weinberg, como la mayoría de las demás, substituyen el hamiltoniano hermítico lineal por uno no lineal, ya que manteniendo la hermiticidad garantizan fácilmente la interpretación probabilística del módulo de la función de onda al cuadrado. Pero, también hay versiones con hamiltoniano no lineal no hermítico (Grigorenko, Quantum mechanics with a non-Hermitian Hamiltonian, Physics Letters A, 1993). Sin embargo, el gran problema, en nuestra opinión, es la falta de integrabilidad en estas ecuaciones lo que dificulta encontrar principios de superposición “no lineales” compatibles con el lineal de la teoría estándar

La materia oscura, invisible ópticamente pero que parece que conforma el 23% de todo el universo, se puede hacer visible gracias a sus efectos gravitatorios. La manera más sencilla es mediante su efecto como lente gravitatoria. Los modelos de simulación mediante ordenador para la formación de galaxias, cúmulos y demás grandes estructuras del universo, predicen que deben aparecer en los lugares donde hay acumulación de masa, que en el caso de incluir la materia oscura, son los lugares donde se encuentra mayores densidades de ésta. Cinco días de uso del telescopio espacial Hubble han permitido obtener la siguiente “fotografía” de los acúmulos de materia oscura (regiones rosadas) según cálculos utilizando lentes gravitorias débiles en una región de cielo que incluye el superclúster Abell 901/902, situado a unos 2.600 millones de años de luz de la Tierra.

dibujo18ene2008a.png

Este resultado no permite confirmar los previamente obtenidos mediante simulaciones numéricas, se requieren futuras confirmaciones mediante la observación de otros superclústeres, pero es una primera confirmación de que estas simulaciones no van desencaminadas. Una de las esperanzas en relación al LHC (Large Hadron Collider) en el CERN, que entrará en funcionamiento a finales de este año es que descubra una partícula nueva que sea un candidato a materia oscura (como el modelo frío, partículas lentas y pesadas, se prefiere al caliente, partículas rápidas y ligeras, es de esperar que la partícula “compañera” supersimétrica más ligera, que supera “claramente” los 100 GeV será una candidata firme).

Por supuesto, podemos dudar de la existencia de la materia oscura (durante gran parte del s. XIX se creyó en la existencia del éter, descartado a principios del s. XX) y hay muchas teorías, por ahora sugeridas por sólo una minoría de los investigadores, que permiten explicar todos los hechos experimentales atribuidos a la materia oscura pero sin ella. La que más me gusta son las teorías MOND (teorías de Newton modificadas) que avanzan un paso más allá de la idea de que la dependencia respecto del cuadrado de la fuerza de la gravedad de Newton es modificada a grandes distancias, idea que no funciona.

dibujo18ene2008b.png

En las teorías MOND (MOdified Newtonian Dynamics), desarrollados por Milgrom en 1983, se postula que aceleraciones minúsculas, por debajo de un valor crítico aM, las ecuaciones de tipo fuerza igual a masa por aceleración han de ser cambiadas, de hecho la atracción gravitatoria efectiva pasa de ser la aceleración newtoniana, sea aN, a aproximarse a la raíz cuadrada de aN por aM. Esta ley permite explicar fácilmente las curvas de velocidad de rotación frente a masa en galaxias espirales, la llamada ley de Tully-Fisher. La teoría MOND también podría explicar los efectos observados en la imagen del Hubble (artículo con la idea)

Andrew Wiles ya ha pasado a la historia de la Matemática de finales del s.XX gracias a su demostración de (un caso particular de) la conjetura de Taniyama-Shimura[-Ribet] (el caso particular) que es equivalente al último teorema de Fermat. La demostración es extremadamente difícil (sobre la idea). ¿En qué está trabajando ahora? Según el ISI Web of Science, tiene 7 papers, con índice de impacto (luego su índice h no puede superar este número). El primero altamente citado (302 veces), el último citado 18 veces. Cinco de ellos en Annals of Mathematics, con índice de impacto 2’oo, la segunda revista en Mathematics del JCR. El índice h muchas veces no nos permite deteminar la “calidad” de ciertos investigadores, como Wiles o el español Cajal, que publican poco pero bien. Está hecho para los que publican como “corredores de fondo”, publican mucho de forma sostenida en el tiempo. Andrew Wiles parece que ya “vive de las rentas”. Posiblemente, ser el matemático más famoso de las últimas décadas. El poder predictivo del índice-h (Does the h-index have predictive power?) adquiere una “excepción que confirma la regla”.

Desde hace 3 días, tengo gripe. Estoy a base de auto-medicación (anti-gripales y mucha agua) para no ser causa de mayores colapsos en nuestro sistema sanitario. Obviamente no engrosaré el listado de unas 3.000 muertes (en España) causadas por la gripe (más de 800.000 en todo el mundo). Mi caso tampoco será uno de los primeros de la gran pandemica que se espera cuando un virus de la gripe aviar (H5N1 o similar) se adapte a los humanos. Hace unas semanas se publicó un artículo muy interesante sobre el tema.

Para que un virus de la gripe se transmita de humano a humano causando una pandemia es necesario que sus proteínas de hemaglutinina (HA, una glucoproteína que se encuentra en la superficie del virus de la gripe, responsable de la unión del virus a la célula infectada) debe tomar una configuración especial. En el virus aviar, ciertos receptores de la HA tienen forma de cono, sin embargo, en el virus humano, estos receptores toman la forma de un paraguas.

dibujo15ene2008.png

http://www.nature.com/nbt/journal/v26/n1/abs/nbt1375.html

Gracias a la tecnología de microarrays de carbohidratos (glycan microarrays) se han comparado los receptores específicos de las HAs de cepas modernas con cepas que en el pasado causaron pandemias. Técnicas de minería de datos han permitido determinar que es la topología de los glicanos, y no el tipo de anclaje en sí, quien determina la posibilidad de que el virus de la gripe cruce de una especie a otra. Se espera que estos resultados sirvan para desarrollar técnicas de identificación de virus susceptibles de generar futuras pandemias.

Las ciencias computacionales nacieron con el experimento de Fermi-Pasta-Ulam en el que los autores utilizaron por primera un ordenador para desarrollar un experimento. Dicho trabajo, clave en las ciencias no lineales de la segunda mitad del siglo XX descubrió que un sistema de osciladores no lineales acoplados la energía presentaba un fenómeno de recurrencia que violaba las ideas de equipartición de la energía demostrada en sistemas de osciladores lineales. Acaba de publicarse un artículo que reinvida la figura de Mary Tsingou (que adquirió de casada el apellido de su marido Menzel) como la persona (una jovencita) que programó el experimento.

(c) http://arxiv.org/PS_cache/arxiv/pdf/0801/0801.1590v1.pdf

El informe técnico en el que se presentó el artículo FPU nunca fue enviado a ninguna revista científica, ya que Fermi murió antes de su escritura, por ello Mary nunca recibió el crédito que realmente merece. Ella programó el Maniac-I, lo que no era poco en la época. Más información del problema FPU y algo más técnico.

En Argentina hay un columpio que dicen que se mueve solo, pero no hay explicación fácil para el mismo. Ello me ha recordado la mecánica elemental de un columpio, muy bien explicada en el artículo de los argentinos Carlos A. Perazzo y Julio Gratton, del que he extraído un dibujo:

(C) http://www.unicen.edu.ar/crecic/analesafa/vol16/a3-9-12.pdf

El artículo mejora el análisis presentado en ¿Cómo se columpian los niños? de Stephen Curry en AJP.

El columpio es un objeto ideal para enseñar física a los más pequeños.

La noticia científica del servidor ScienceNOW Daily News (noticias de Science magazine) del año 2007 que ha sido más descargada es “No more black holes?“, de Phil Berardelli, sobre el artículo “Observation of incipient black holes and the information loss problem“, de Tanmay Vachaspati, Dejan Stojkovic, and Lawrence M. Krauss, publicado en Physical Review D, vol. 76, art. no. 024005 (2007) [para los no suscritos a la revista]. Los autores consideran la radiación que se produce durante la formación de un agujero negro a partir de una pared de dominio (un “cascarón” esférico en lugar de una estrella convencional) vista desde un observador (lejano) asintótico. Estudian este problema de forma clásica (utilizando la solución de Schwarschild) y con una aproximación cuántica basada en la ecuación de Wheeler-de Witt, observando que la radiación emitida (dos “tipos” de radiación de Hawking, una no térmica y la otra térmica, tipo Hawking) diverge (se vuelve infinita en un tiempo finito). Ello indica que toda la información de la pared de dominio se emite como radiación y no se pierde en la formación de la singularidad que oculta el agujero negro, es decir, no se forma ningún agujero negro: el “agujero negro” se evapora mientras se forma, con lo que no llega a formarse nunca. Los cálculos, en la ausencia de una teoría cuántica de la gravedad, son muy aproximados y desprecian algunos efectos, por ejemplo, consideran que el espacio tiempo (la métrica) de fondo (background) es estática (no consideran el cambio introducido por el propio colapso, la “backreaction”).

Los autores (salvo el famoso Krauss) han publicado un artículo en el que mejoran el cálculo precedente, ya que aplican a la pared de domino un tratamiento cuántico en lugar del semi-clásico del anterior artículo. También confirman la evaporación del agujero negro previo a su formación. Uno de los autores, Vaschapastio, ha ido incluso más lejos, incorporando una aproximación a la “backreaction” e incluso definiendo un nuevo concepto “estrellas negras” (black stars) para las estrellas que, durante el colapso que lleva a la formación de un agujero negro, están “congeladas” cerca de su horizonte de sucesos, proponiendo que la colisión entre estrellas negras puede ser responsable de los chorros de rayos gamma (“gamma ray bursts”) más espectaculares (que no tienen una “buena” explicación astrofísica).

Sin embargo, todos estos resultados extremadamente especulativos van en contra del conocimiento establecido, así que una dura crítica no ha tardado mucho en publicarse. El resumen del artículo ““Black Star” or Astrophysical Black Hole?” del astrofísico Kristóf Petrovay, no requiere más traducción “I demonstrate that these ill-considered claims are clearly wrong”. El autor recuerda que los efectos de la radiación de Hawking son despreciables para un agujero negro astrofísico, requieren escalas de tiempo superiores a la edad del universo, y que por tanto, por mucho que radie el objeto que colapsa, acabará necesariamente en un agujero negro astrofísico (una crítica clara al artículo firmado por Karuss). Además, el autor indica que la radiación emitida en el colapso de los estrellas negras no sería perceptible por un observador asintótico por la misma razón que un agujero negro es negro, estaría “infinitamente” corrida hacia el rojo. Por tanto, esta serie de trabajos científicos no son más que meras elucubraciones teóricas sin ninguna utilidad astrofísica (el autor afirma que científica, ya que tampoco las considera aplicable a mini-aguajeros negros como los que se podrían producer en el futuro LHC).

En resumen, Krauss, que es un gran divulgador científico y ha ganado mucho dinero vendiendo libros con ideas que podemos calificar de “radicales”, tiene un nuevo filón: los agujeros negros no existen y esto se podrá demostrar experimentalmetne en el LHC.

En el servidor de artículos arxiv.org muchas veces aparecen artículos de difícil publicación en revistas de investigación científica. Algunos son interesantes, otros son “chorradas”. El artículo “Some conjectures about the mechanism of poltergeist phenomenon” pretende explicar este fenómeno para-psicológico mediante la proyección de ondas por parte del cerebro (una especie de telequinesis):

A decrease in entropy (creation of order) in brain of pubescent people (or young women!!) throws a greater amount of entropy (disorder) into the brain environment, which, in exceptional cases, originates poltergeist disturbances. In practice, poltergeist is interpreted as a by-product of the entropy increase (dS/dt)Env expected in consequence of the second law.”

El “espeluznante” resumen es como sigue:

Poltergeist accounts concern at least four kinds of strange spontaneous manifestations, such as burning of materials, failures of electric equipments, rapping noises and movements of objects. A simple analysis of phenomenology of these disturbances shows that they might have a common origin, that is, a reduction in strength of molecular bonds due to an enhancement in polarization of vacuum which decreases the actual electron charge. Arguments based on Prigogine’ nonequilibrium thermodynamics are proposed, which show how transformations in brain of some pubescent childs or young womans might be the cause of these effects.”

Estos autores parece que siguen la estela de Nicola Tesla, gran inventor, que propuso la “propagación por el aire (sin cables) de la electricidad” en un contexto “esotérico”. Por supuesto, esto no tiene nada que ver con el trabajo en wireless electricity en el MIT de MARIN SOLJACIC, la “witricidad” (Witricity) que podéis ver en acción en vídeo.