Yo, lo confieso, veía “El tomate” de “T’ la hinco”. Para mi mujer era un buen somnífero, pero yo prefería los documentales de la 2. Pero si a mi mujer le quitas “Aquí hay tomate” automáticamente se despierta y hay que “reponerlo”. ¿Por qué le han dado un “merecido” descanso al programa? Las malas lenguas, que en España hay muchas, dicen que tiene que ver con Don Juan … Carlos … el primero y espero que también el último de nuestros monarcas. Lo confieso su chaval me cae fatal … pero no lo conozco personalmente.

Esto me recuerda al fin de la Primera República Española. El 29 de diciembre de 1874, el general Martínez Campos da un golpe de estado y proclama como Rey de España a don Alfonso XII, único hijo varón de Isabel II. Pocos días más tarde se suspende la publicación de todos los periódicos republicanos. El 29 de enero (no hoy sino en 1875) se promulga un decreto para censurar a la prensa prohibiendo tocar ciertos temas en la prensa como el ataque directo o indirecto al sistema monárquico. ¿A qué me recordará esto?

La Segunda República Española sufrió un duro golpe en enero de 1937. El 19 de enero, en Salamanca, el “bando rebelde” crea Radio Nacional de España en plena guerra civil. El 29 de enero de 1937 en la Junta de Defensa de Madrid el Delegado de Prensa y Propaganda decidió incautar todas las radios (unas 70 antes de la guerra) exepto las del “bando”, Unión Radio, Radio España y Trans-Radio.

Adolfo Suárez (nacido en Cebreros, Ávila, 1932, tierra de buen clarete y de las cepas de Quexigal compradas por Vega Sicilia) fue nombrado presidente del gobierno el 29 de enero de 1976 y dimitió el 29 de enero de 1981. Se supone que gracias a los Pactos de la Moncloa se eliminó la censura franquista en la prensa y se instauró la libertad de prensa que hoy disfrutamos. ¿ Que hoy disfrutamos ?

Bueno, no tanto. La prensa española practica una estricta “autocensura” en todo lo relacionado con la Casa Real. Para muchos “La afición de don Juan Carlos a las faldas no es un problema de Estado”. Que “Doña Sofia viva habitualmente en Londres” tampoco. Que… bueno, es vox populi, aunque no se vea reflejada en la prensa.

La cancelación de “Aquí hay tomate” ha sido una sorpresa que nadie se esperaba (más aún en mitad de temporada y de una manera tan tajante). Las “malas” lenguas dicen que estaban preparando un especial sobre las “faldas” del Monarca y que tras un pésimo año pasado (basta recordar el secuestro “de la portada” del jueves), la Casa Real ha decidido presionar a su “buen amigo” Berlusconi, presidente y fundador de Mediaset, propietaria de más del 99% de “T’ la hinco”. Baste recordar las palabras de Berlusconi sobre el famoso “por qué no te cayas”.

La lectura de “Cómo las mujeres manipulan a los hombres” me ha sugerido la lectura de algunos artículos algo más interesantes (al menos para mí) sobre el tema de las relaciones entre parejas estables. Es bien conocido que los hombres cuando buscan pareja prefieren mujeres físicamente más atractivas y que las mujeres por el contrario prefieren parejas masculinas con estado socioeconómico demostrable. ¿Pero realmente los hombres se despreocupan tanto del estado socioecómico (ESE) de sus parejas? El artículo “What do men and women want in a partner? Are educated partners always more desirable?“, Tobias Greitemeyer, Journal of Experimental Social Psychology, 2007, parece indicar que no, pero con una diferencia, los hombres prefieren parejas con menor ESE que ellos (tanto para relaciones “románticas” como para relaciones “esporádicas”), mientras que las mujeres los prefieren con mayor ESE. Estas diferencias son más pronunciadas cuando buscamos relaciones románticas que esperamos sean de larga duración. ¿Pero por qué? Este artículo propone que la razón es sencilla, a los hombres nos gustan más las mujeres “tontas” (¿manipulables?) y como un mayor ESE suele venir acompañado de una mujer con un nivel educativo más alto, nos gustan menos.

Las mujeres manipulan a los hombres, pero los hombres insultan más en la intimidad a sus parejas, lo que puede estar relacionado con la violencia de género. ¿Pero por qué los hombres insultamos más a nuestras parejas (de lo que ellas nos insultan a nosotros)? El artículo “Why do men insult their intimate partners?“, McKibbina et al., Personality and Individual Differences, 2006, trata esta cuestión desde un punto de visto psicológico. Entre el amor y el odio, la diferencia es pequeña. La idea de los investigadores es que los insultos dirigidos a la pareja tienen por objeto ¡¡ retener a ésta durante un mayor tiempo !! Curiosa hipótesis. Insultamos para mantener a nuestras parejas. Quizás lo sorprendente es que ¡¡ ellas se dejen !!

El inventario de cosas que los hombres hacemos para retener a nuestras parejas es sorprendente, “The Mate Retention Inventory-Short Form (MRI-SF)“, Bussa et al., Personality and Individual Differences, 2007, desde la vigilancia (celos) a la violencia (insultos ¿cariñosos?). No sólo es importante selecionar y atraer a una pareja, también es necesario retenerla, y para ello parece que hay que ser “muy macho” (“From vigilance to violence Tactics of mate retention in American undergraduates“, Buss, Ethology and Sociobiology, 1988). Seguramente estos resultados son productos de nuestra sociedad machista (miles de años de machismo) en lugar de resultado de improntas evolutivas desarrolladas durante la evolución primigenia del Homo Sapiens Sapiens (pero es mi opinión, la de un “aficionado”).

La teoría de la evolución de Darwin también se puede aplicar al estudio de la sexualidad humana (“The evolution of human sexuality” Thornhill, Gangestad, Trends in Ecology & Evolution, 1996) y parece que indica que en la dinámica de las relaciones heterosexuales la competición espermática (por conseguir con mi esperma fertilice el óvulo de mi mujer en lugar de que lo hagan otros hombres, dada la ¿infidelidad “natural” de la mujer?) no sólo a nivel fisiológico sino también a nivel psicológico es clave. El artículo no tiene desperdicio. Los estudios sobre la teoría de la competición espermática indica que la cantidad de esperma que eyaculamos crece proporcionalmente al tiempo que ha transcurrido desde la última relación sexual. Más aún, el tamaño de los testículos es mayor en los hombres que pasan menos tiempo con sus parejas que en los hombres que pasan más tiempo con ellas. Los celos en los hombres están relacionados con la defensa de la paternidad, el miedo a la pérdida de la exclusividad sexual. Los celos en las mujeres lo están con la defensa de la pareja y la garantía de la inversión del hombre en ella. Yo no soy experto, pero me parece que los investigadores (hombres) manipulan la ciencia sobre la sexualidad humana y las mujeres manipulan a los hombres en la práctica.

Hay muchos problemas todavía por resolver en relación a la gravedad en nuestro universo cercano, nuestro sistema solar (“Is the physics within the Solar system really understood?” Lämmerzahl, Preuss, Dittus, 2006). Entre ellos, destaca la anomalía de las sondas Pioneer, que aparentemente se han estado desacelerando levemente tras abandonar la órbita de Saturno (unos (8.74 ± 1.33)×10^(-10) m/s^2 dirigidos hacia el Sol). La sonda Pionner 10 se debe encontrar a unas 80 UA (unidades astronómicas) y fue contactada por última vez el 27 de abril de 2002, aparentemente ha dejado de emitir; la Pionner 11 se debe encontrar a unas 30 UA y dejo de emitir el 30 de septiembre de 1995. Esta aceleración ha sido observada como un efecto Doppler muy pequeño en las señales que recibimos de la sonda. Efectos similares se han observado en las sondas Galileo (unos (8 ± 3)×10^(-10) m/s^2 a unas 5 UA) y Ulysses (unos (12 ± 3)×10^(-10) m/s^2 a una distancia variable entre 1.3 y 5.4 UA). Muy interesantes es esta presentacion en PowerPoint.

¿Qué puede explicar esta anomalía? Aparentemente, el gas interplanetario o interestelar no explica la anomalía (tendría que ser unos 30 mil veces más denso). La existencia de masas desconocidas en el Sistema Solar (planetas, cometas, o similares) también se puede descartar ya que deberían tener una masa similar a la de nuestra Tierra lo que no es compatible con las mejores observaciones actuales. Otras explicaciones como que el Sol se está acelerando, o efectos locales debidos a la expansión del propio Universo, parece que se pueden descartar también.

Hay muchas posibles explicaciones basadas en la existencia de “Nueva Fïsica”, modificaciones de la gravedad como por ejemplo (“Pioneer anomaly: a drift in the proper time of the spacecraft“, Zaveri, 2008). Sin embargo, no podemos descartar que la anomalía sea debida a causas internas en la propia nave, sólo 65 W de radiación térmica emitida en la dirección correcta basta para explicarla, lo que supone sólo un 3% del calor generado por los generadores termoeléctricos radiactivos (RTG, basados en radioisótopos) que utilizan las Pioneer. Las sondas han emitido información sobre la cantidad de calor que emiten, que se conoce con gran precisión, pero lo que explica la anomalía es la anisotropía en el patrón de esta emisión, algo que aparece en los datos telemétricos recibidos.

“Pioneer Anomaly: Evaluating Newly Recovered Data”, Toth, Turyshev, 2007

¿Pero cómo podemos saber cómo es la distribución de calor emitida por las sondas? La técnica estándar es modelar mediante elementos finitos la sonda y tratar de resolver un problema inverso (“Pioneer Anomaly: Evaluating Newly Recovered Data“, Toth, Turyshev, 2007). Sin embargo, los cálculos requieren conocer la geometría detallada de la sonda y el coeficiente de emisividad infrarroja en todos los puntos de su superficie. Esta información no está disponible, sobre todo por que las propiedades de las superficies pueden haber cambiado mucho debido al envejecimiento de la sonda (con más de 30 años de edad) en el espacio profundo.

“Pioneer Anomaly: Evaluating Newly Recovered Data”, Toth, Turyshev, 2007

Actualmente los resultados explican muy bien los resultados telemétricos enviados por la sonda (como la figura de la distribución de calor en los dos RTG), pero aún así son muy pobres y no permiten explicar completamente la anomalía. Mejoras en estos modelos numéricos parecen muy prometedoras, quizás más que cambios en las leyes físicas de la gravedad. Quizás no necesitamos tantos imitadores de Einstein sino más ingenieros (¿Por qué quiero ser ingeniero?).

En Física son muchos los ejemplos de descubrimientos en los que un investigador ha mirado algo sorprendente y lo ha reportado por primera vez, resultando ser su primer descubridor, pero años más tarde se descubre que en realidad fue visto por muchos otros antes que él (precursores del descubrimiento), quienes no lo reportaron. Él lo miró, los primeros sólo lo vieron.

El LEP2 en el CERN trató de buscar (mirar) el bosón de Higgs, al menos uno compatible con el Modelo Estándar de Partículas Elementales o con el Modelo Minimal SuperSimétrico. Aunque hubo cierta evidencia (por debajo de lo considerable como un descubrimiento) de que había un Higgs con una masa del orden de 115 GeV, actualmente se considera que no es suficiente y que será el LHC también en el CERN quien haga el descubrimiento. Sin embargo, otros modelos “no estándares” permiten la existencia de bosones de Higgs (en casi todos los modelos se requiere más de uno) de masa inferior al límite experimental del LEP2. Quizás hayan visto un bosón de Higgs de masa inferior a 90 GeV, pero como no lo han mirado, les ha pasado desapercibido.

Esta idea apareció en un preprint (“Light MSSM Higgs boson scenario and its test at hadron colliders“, Belyaev et al. 2006) que recientemente ha sido aceptado para publicación en la prestigiosa revista Physical Review Letters. Esto le da suficiente caché como para que sea algo razonable a tener en cuenta. En una variante del Modelo Minimal Supersimétrico (que presenta al menos 5 bosones de Higgs, llamada Next-To-Minimal Supersymmetric Model) es posible la existencia de un bosón de Higgs poco masivo (menor que la masa del bosón vectorial Z, aunque puede llegar a tener una masa máxima de hasta 130 GeV), que puede haber pasado desapercibido entre los datos del LEP2 o en los del Tevatron, ya que interactúa muy débilmente con los bosones vectoriales Z. Hay cierta evidencia teórica (“Neutralino Dark Matter in Light Higgs Boson Scenario“, Asano et al., 2007) de que esta posibilidad es consistente no sólo con los resultados de múltiples experimentos en colisionadores sino también con la abudancia de matería oscura compatible con el Modelo Cosmológico Estándar con Materia y Energías Oscuras.

Muy interesante es el artículo “A Comparison of Mixed-Higgs Scenarios In the NMSSM and the MSSM“, Dermisek and Gunion, 2007, en el que utilizan estas ideas para sugerir que la escala de ruptura de la simetría electrodébil corresponde a la de la ruptura de la supersimetría, resultando en un Higgs ligero del orden de 98 GeV. Este Higgs (neutro) es poco interesante, ya que el Higgs que genera la masa de los bosones vectoriales W y Z (el realmente predicho por Higgs, Weinberg, Salam y Glashow) es uno de los Higgs (cargado) más masivos (con al menos 130 GeV, que todavía tendría que ser “descubierto” por el LHC). El artículo anterior complementa muy bien a “A Solution for Little Hierarchy Problem and b –> s gamma“, Kim et al., Physical Review D, 2006.
El grupo de investigación del detector DELPHI del CERN ha escrito un artículo muy recientemente al respecto (“Higgs boson searches in CP-conserving and CP-violating MSSM scenarios with the DELPHI detector“, DELPHI Collaboration, 2008). La mirada a los datos (re-análisis) con énfasis en el sector de Higgs aparentemente no previamente explorado parece indicar que los datos no revelan un exceso significativo con respecto a lo esperado si este bosón de Higgs ligero existe. De esta forma han obtenido límites para las masas de los bosones de Higgs más ligeros compatibles con 8 posibles escenarios (8 versiones de la N-MSSM que conservan la simetría CP) han de ser superiores (en los casos más ligeros) a 82 GeV y (en los menos ligeros) 112.8 GeV. Por ejemplo, el más ligero > 89.7 GeV y el siguiente > 90.4 GeV para varios parámetros razonables del modelo e independientemente de la masa del quark top (supuesta 183 GeV). Por supuesto, como el LEP2 no está actualmente en funcionamiento no es posible concluir que realmente se haya visto (o no) un bosón de Higgs ligero.
El LHC, sin lugar a dudas, nos sacará de dudas. Estos nuevos resultados muestran otros lugares en los que mirar que hace un par de años no habían sido considerados. Quizás todavía queden más lugares inexplorados. Esperemos que el LHC empiece a funcionar a finales de año y que para finales del 2009 ya tengamos los primeros resultados “interesantes”.

El doctor Humberto Michinel del laboratorio de óptica de la Universidad de Vigo introdujo (descubrió) en 2002 (Phyiscal Review E) un fenómeno curioso en medios ópticos fuertemente no lineales que incluyen simultáneamente no linealidades cúbicas y quínticas pero de signo opuesto (el índice de refracción “efectivo” no lineal es de la forma n = n0 + n2 I – n4 I^2, donde I es la intensidad de la señal). En sus simulaciones numéricas, la luz se condensaba como un líquido y se comportaba ante colisiones con los contornos del cristal como si tuviera tensión superficial, como si fueran “gotas” de luz. A este fenómeno le denominó LUZ LÍQUIDA. Aquel año hubo mucho “movimiento” mediático al respecto. Hasta el momento la luz líquida no ha sido demostrada en el laboratorio (es difícil encontrar un material con las propiedades ópticas no lineales adecuadas). En castellano es interesante el artículo de Humberto en la Revista Española de Física. Humberto cree que sus gotas líquidas podrán ser la base de futuros ordenadores completamente ópticos.

dibujo24ene2008michinel.jpg

El concepto de “luz sólida” fue introducido en un artículo científico de 2006 cuyo título (al contrario que el PRE de Humberto) no hacía referencia explícita al nuevo concepto (“Quantum phase transitions of light“, Greentree, Tahan, Cole, Hollenberg, Nature Physics, 2006). En la luz en el vacío los fotones interactúan muy poco entre sí, sin embargo, en ciertos medios “no lineales” los fotones interactúan con la red del medio y exhiben comportamientos fuertemente correlacionados. La luz sólida requiere un material con una red bi-dimensional de “agujeros” (cavidades ópticas) en la que cada cavidad contiene luz atrapada (por ejemplo, un átomo con dos niveles atómicos que permite “bloquear” los fotones entre esos estados cuánticos). Los fotones atrapados se comportan como partículas (polaritones) que interactúan fuertemente entre sí. Greentree et al. demostraron teóricamente (algo que Humberto no ha podido hacer con su luz líquida) que los fotones sufren una transición de fase cuántica entre un estado superfluido (los polaritones están deslocalizados por toda la red) y un estado de aislante (ferromagnético) de Mott (algo parecido ocurre en superconductores de alta temperatura), en lenguaje llano, algo parecido al cambio entre “agua y hielo”. Una explicación sencilla, en inglés, la encontraréis aquí. Los autores, como Humberto, también aluden a futuras aplicaciones en ordenadores completamente ópticos (uno de los grandes temas estrella de los últimos años en óptica no lineal). Todavía no se ha logrado obtener luz sólida en experimentos, pero parece que las técnicas de cavidades ópticas posibilitarán en los próximos años acercar espacialmente múltiples cavidades y lograrán verificar (o refutar) los resultados teóricos obtenidos.

¿Qué más nos puede deparar la luz? Quién sabe.

La compañía canadiense D-Wave Systems, anunció el 13 de febrero de 2007 el desarrollo del primer computador cuántico “comercial” llamado Orion de sólo 16 qubits y el 12 de noviembre del mismo año el primer ordenador cuántico de 28 qubits. Su idea es tener un ordenador con 512 qubits disponible en el verano de 2008 y uno de 1024 para finales del mismo. Hasta ahora el ordenador “cuántico” de D-Wave se ha utilizado como oráculo “cuántico” de un programa clásico para resolver algunos problemas sencillos (resolver un sudoku o búsqueda de patrones en imágenes). Para estos problemas la “nueva máquina” es más lenta que un ordenador convencional, pero es de esperar que conforme el número de qubits aumente se obtenga algún tipo de speedup “cuántico”.

FOTO DE UN “CHIP” de ORION

El ordenador Orion de D-Wave se basa en el concepto de computación cuántica adiabática. Propuesto por Farhi, Goldstone, Gutmann y Sipser en el 2000 (“Quantum Computation by Adiabatic Evolution“), este tipo de computación se basa en construir un Hamiltoniano que “físicamente” represente el problema a resolver de tal forma de que su evolución lenta en el tiempo corresponda a una búsqueda de la solución óptima al problema. La idea fue propuesta inicialmente para resolver problemas de satisfacibilidad NP en tiempo polinomial, partiendo de un Hamiltoniano fácilmente construible, el sistema evoluciona hacia el estado final deseado que es solución del problema. También se ha propuesto para resolver el problema del viajante (“Quantum Adiabatic Computation and the Travelling Salesman Problem“, Kieu, 2006), como oráculo “eficiente” de un ordenador clásico.

FOTO del LAYOUT de los 16 QUBITS del ORION

La computación adiabática también permite resolver otro tipo de problemas como los problemas de búsqueda. Mediante una elección adecuada del Hamiltoniano dependiente del tiempo se puede buscar un dato concreto en una base de datos no estructurada en una unidad de tiempo fija, independiente del número de elementos de dicha base de datos (al contrario que el algoritmo de Grover que requiere un número O(sqrt(N)) de operaciones, o un algoritmo clásico que requiere al menos O(N) operaciones) (“Rapid Data Search using Adiabatic Quantum Computation“, Ahrensmeier, Das, Kobes, Kunstatter, Zaraket, 2002). De hecho, ciertas críticas al Orion de D-Wave como ordenador cuántico adiabático es que utiliza el algoritmo de Grover, en lugar del algoritmo más eficiente posible. Lo que ha generado dudas (más aún cuando todavía no han publicado ningún artículo científico sobre Orion en ninguna revista de prestigio) sobre si Orion es realmente un ordenador cuántico adiabático o solamente un computador “clásico” que usa qubits superconductores (es decir, si hay o no entrelazamiento, entanglement, entre los qubits).

Una de las grandes esperanzas de la computación cuántica, la simulación del proceso cuántico de plegamiento de proteínas, también ha sido “atacado teóricamente” mediante computadores adiabáticos (“On the construction of model Hamiltonians for adiabatic quantum computing and its application to finding low energy conformations of lattice protein models“, Perdomo, Truncik, Tubert-Brohman, Rose, Aspuru-Guzik, 2008).

Desde el punto de vista de la potencia computacional, la computación cuántica adiabática es equivalente (polinomialmente) a la computación cuántica estándar (máquina de Turing cuántica de Deutsch) (“Adiabatic Quantum Computation is Equivalent to Standard Quantum Computation“, Aharonov, van Dam, Kempe, Landau, Lloyd, y Regev, 2004).

Por supuesto los computadores cuánticos adiabáticos también sufre el “gran mal” de la decoherencia (acoplamiento cuántico con el entorno) que introduce errores aleatorios en los estados internos de superposición (entanglement) del Hamiltoniano penalizando (o impidiendo) el desarrollo de computadores con un gran número de qubits (“Decoherence in a scalable adiabatic quantum computer“, Ashhab, Johansson, Nori, 2006, y “Decoherence in adiabatic quantum computation“, Amin, Averin, 2007), aunque trabajos anteriores proclamaban “incorrectamente” que eran más robustos ante los errores introducidos por la decoherencia (“Robustness of adiabatic quantum computation“, Childs, Farhi, Preskill, 2001).

En resumen, el futuro de los ordenadores cuánticos adiabáticos, como oráculos de computadores clásicos, es muy prometedor, aunque quizás los “anuncios” de D-Wave están muy mediatizados comercialmente y obtener ordenadores con miles de qubits está todavía muy lejos. Pero, quien sabe, Craig Venter y Celera Genomics aceleraron con su esfuerzo privado el Proyecto Genoma Humano, quizás Geordi Rose (CEO “técnico”) y Herb Martin (CEO “político”) logren que D-Wave acelere el desarrollo del primer ordenador cuántico útil en la práctica.

Hay muchos “inventores” de máquinas de generación de energía “gratis” (móviles perpetuos de segunda clase). Por ejemplo, la máquina gravitatoria (“gravity machine”) del Dr. Roderich W. Graeff, quien afirma que ha construido su máquina y que desde hace 2 años está extrayendo energía “gratis” de dicha máquina (“Since two years my Gravity Machine uses these temperature differences to generate electricity without the introduction of any energy from the outside!”). La idea de la máquina es que en un gas sujeto a un campo gravitatorio se genera un gradiente térmico del que se puede extraer energía (http://www.firstgravitymachine.com/temperaturedifference.phtml). ¿Es posible este efecto?

La idea de Graeff de extraer energía de un campo gravitatorio convirtiéndola en energía eléctrica es bastante vieja: ya Loschmidt (físico famoso del s. XIX en Termodinámica) y Maxwell se plantearon la posibilidad de que la gravedad genere un gradiente térmico en una columna de gas (lo que permite una máquina de movimiento perpetuo de segunda clase, es decir, que convierte espontáneamente energía en trabajo mecánico sin mediar gasto de combustible alguno).

Graeff ha calculado la diferencia de temperatura entre las placas de su máquina (dice que la ha medido experimentalmente en un experimento dotado de cierto “secretismo”, lo presenta en “su libro” pero en la web no quiere dar más detalles, yo no he leído su libro) para el aire de 0.014 ºK/m (grados Kelvin por metro de distancia entre placas)(http://www.firstgravitymachine.com/temperaturedifference.phtml).

Muchos otros “inventores” han propuesto motores basados en la gravedad que permiten convertir energía gravitatoria en mecánica, térmica, eléctrica, … (http://freeenergynews.com/Directory/GravityMotors/index.html).

¿Funciona esta máquina de movimiento perpetuo de segunda clase?

La respuesta oficial (que en opinión de un científico debe ser considerada correcta) es que NO FUNCIONA. ¿Por qué? La respuesta se encuentra en el artículo (dirigido a alumnos de física, por lo que es muy elemental) de Charles A. Coombes and Hans Laue, “A paradox concerning the temperature distribution of a gas in a gravitational field”, American Journal of Physics, Vol. 53, pp. 272-273, 1985 (http://dx.doi.org/10.1119/1.14138).

En resumen la respuesta es como sigue: no se puede inferir del comportamiento de una sola molécula el comportamiento de un gas (aunque sea ralo). Una molécula individual sí “sufre” el efecto por el principio de conservación de la energía, pero cuando este efecto se promedia a todas las moléculas de un gas, no podemos sumar sus contribuciones tal cual (obtiendo energía “gratis”), si no que hay que realizar un cálculo (sencillo) teniendo en cuenta la distribución de velocidades de las moléculas en un gas según las leyes de la Termodinámica Estadística, y el resultado es que en el promedio el resultado neto es nulo. De hecho, la densidad (y presión) del gas sí varía con la altura debido al campo gravitatorio (fórmula barométrica) pero no la temperatura, que se mantiene constante. Por tanto, entre dos placas a la misma temperatura, pones un gas a dicha temperatura, sujeto a la ley de la gravedad, y no hay ninguna transferencia neta de calor entre ambas placas mediada por el gas. La máquina NO FUNCIONA.

Sobre la fórmula barométrica es recomendable el artículo de Mario N. Berberan-Santos et al., “On the barometric formula”, American Journal of Physics, Vol. 65, pp. 404-412, 1997, http://dx.doi.org/10.1119/1.18555. Para un gas bastante ralo, no se pueden aplicar directamente las leyes termodinámicas (pues suponen que un estado de equilibrio) sino que hay que aplicar las leyes de la cinética molecular (ecuación de Boltzmann y sus variantes). La solución “correcta” de estas ecuaciones requiere de simulaciones numéricas moleculares basadas en métodos de Montecarlo. Estas simulaciones confirman la fórmula barométrica, como muestra Filippo G. E. Pantellini, “A simple numerical model to simulate a gas in a constant gravitational field”, American Journal of Physics, Vol. 68, pp. 61-68, 2000, http://dx.doi.org/10.1119/1.19374.

Hay artículos mucho más técnicos. El problema considerado en la “Gravity Machine” es clásico en la teoría cinética de los gases, se modela normalmente con la ecuación de Bhatnagar, Gross, y Krook (teoría o ecuación BGK) que es una simplificación de las ecuaciones de Boltzmann para el problema de la transferencia térmica entre dos placas conductoras de calor entre las que se encuentra confinado un gas ralo inerte. El comportamiento de este sistema ha sido estudiado tanto teórica como experimentalmente por muchos autores desde mediados del s. XX (podría conseguirte un gran número de referencias, pero creo que son demasiado técnicas). Además, en las dos últimas décadas, también ha sido estudiado este problema a escala micrométrica e incluso nanométrica. Y los resultados muestran que el efecto predicho por Graeff no existe (ni siquiera en el caso nanométrico, donde el gas se comporta de forma bastante complicada, como un gas de tipo van der Waals, muy alejado de un gas ideal y de las consideraciones de “principiante” que utiliza Graeff). Una referencia reciente, aunque quizás también muy técnica, es el libro “Microscale and Nanoscale Heat Transfer” editado por Sebastian Voltz, publicado por Springer Verlag en 2007, que en su capítulo 2 trata este tema.

En resumen, la “gravity machine”, máquina de aprovechamiento de energía gravitoria gracias a la cinética molecular, no funciona. Como se ha demostrado experimental y teóricamente en la segunda mitad del s. XX, incluso si se tienen en cuenta efectos cuánticos. Ver, por ejemplo, “Classical and quantum study of the motion of a particle in a gravitational field”, Journal of Mathematical Chemistry, Vol. 37, 2005, http://www.springerlink.com/content/u72245745531345l/fulltext.pdf).

Las teorías de Lin Chen proponen que nuestros cerebros son analizadores topológico-geométricos de la realidad. Nuestro cerebro, primero analiza la topología de la escena y sólo después analiza la información geométrica contenida en ella (“Holes, objects, and the left hemisphere”, Sheng He, PNAS, 2008). Todos somos topólogos. ¡ Quíén lo hubiera dicho !

La teoría de percepción topológica propuesta por Lin Chen (“Topological structure in visual perception”,Science,1982), ha tratado de demostrar que el funcionamiento de nuestro sistema de percepción visual se basa en la percepción de ciertas características topológicas de los objetos (invariantes topológicos) y su posterior “adorno” con información geométrica, contextual y semántica (“The topological approach to perceptual organization”, Visual Cognition, 2005). Uno de los últimos trabajos de Chen (“Global topological dominance in the left hemisphere”, PNAS, 2007) descubre que la percepción topológica del hemisferio izquierdo es mejor que la del derecho (al menos para los diestros estudiados).

dibujo24ene2008cerebro.jpg

La figura muestra los resultados de aplicar la técnica de imagen de resonancia magnética funcional (f-MRI) en las áreas de la corteza cerebral de sujetos diestros. En el caso A, la discriminación entre un triángulo y una flecha, sólo una región del hemisferio izquierdo es activada en 14 de los 15 sujetos estudiados. En el caso B, estudiaron la discrimináción entre un anillo (circunferencia, agujero) y una letra S (“sin agujeros”), y la imagen muestra que prácticamente la misma zona del hemisferio izquierdo es la que se activa. De las figuras A y B, los autores deducen que la percepción de diferencias topológicas (número de agujeros, relación dentro/fuera) está claramente situada en el hemisferio izquierdo y activan regiones del cerebro específicos antes que las diferencias geométricas como la forma: triangular, circular, o cuadrada, o propiedades geométricas como la orientación, distancia, tamaño, simetría especular, paralelismo o colinelidad.

El gran problema de estos estudios es que no es posible encontrar ejemplos de figuras que difieran sólo en propiedades topológicas (características globales), pero que mantengan la misma geometría (características locales). Por lo que no se puede estudiar la importancia de la topología en la percepción de forma completamente aislada (sin tener en cuenta la información geométrica). El grupo de Chen trata de buscar señales en las imágenes f-MRI que se mantengan para diferentes geometrías pero que comporten una característica topológica común.

El descubrimiento de que el hemisferio izquierdo “es más topólogo” que el derecho (que “es más geométra”, aunque también “un poco topólogo”) no es una sorpresa, ya que muchos estudios en los últimos años han mostrado que para ciertas tareas un hemisferio se comporta mejor que para otras. Estos resultados del grupo de Chen son un arma de doble filo, ya que si ellos pretenden demostrar que la percepción de propiedades topológicas es el principio fundamental de la percepción, el hecho de que preferentemente lo haga sólo el hemisferio izquierdo indica que hay más de un principio fundamental, ya que la percepción visual no está completamente lateralizada en el cerebro. Sin embargo, sus trabajos sólo indican que hay cierta preferencia por la percepción topológica en el hemisferio izquierdo no que sea exclusiva de éste.

En resumen, yo ya lo sabía, “todos llevamos un topológo en nuestro interior” (aunque sólo algunos lo muestran explícitamente).

Hoy se ha celebrado en la E.T.S.I. Informática de la Univ. Málaga las I Jornadas de Alumnos de Informática sobre Juegos: Matemática Recreativa e Implementación de Videojuegos, organizadas por los profesores Antonio J. Fernández y Pablo Guerrero García. Las charlas han sido divertidas, mucho humor y muchas curiosidades, con lo que no nos hemos aburrido. El nivel técnico, un poco flojo, y se ha echado en falta un poco más de Implementación y poco menos de Catalogación. Pero la experiencia ha sido muy interesante. Los alumnos han presentado pósteres (en la cafetería) y comunicaciones orales (en un aula). La experiencia ha culminado con un merecido almuerzo de confraternación entre profesores (organizadores) y alumnos (participantes).

Bonita experiencia. Esperemos que se repita en próximos años.

El artículo “Why we live in the Computational Universe” de Giorgio Fontana se plantea la cuestión de cómo podemos diferenciar entre el Universo “de verdad” (real) de cualquier modelo del mismo (computacional, o tipo The Matrix) ejecutado por una Máquina de Turing (Computador) Universal. El autor propone que el descubrimiento de técnicas de optimización de código (reglas de “optimización” de las leyes físicas de la realidad) permite discriminar si nuestra realidad es fundamental o es el resultado de una computación en un ordenador. Es decir, como todo programador experto optimiza el código que produce, si nuestra Realidad parece optimizada entonces NO ES “real” (fundamental) o alternativamente si nuestra Realidad no está optimizada entonces es “real” (fundamental) o el programador que la ha programado es “muy malo”.

El autor va más allá aún, mencionando la paradoja de Einstein-Podolsky-Rosen (1935), la posibilidad de que la Mecánica Cuántica sea una teoría no local, permitiendo efectos a distancia que “violan” la relatividad especial, como un ejemplo de una propiedad “trivial” de que el universo es The Matrix, un universo computacional, ya que evidencia que el Universo está “optimizado”. Esta idea le lleva al autor a proponer la teoría del Universo Computacional (Cuántico) adquiriendo ideas previamente sugeridas por Seth Lloyd (el “grande” de la computación cuántica). La idea de Lloyd es que si The Matrix existe puede ser detectada mediante ondas gravitatorias. De hecho, la gravedad no se puede “cuantizar” porque es un ya es “producto” cuántico. Lloyd’s “A theory of quantum gravity based on quantum computation” presenta ideas sobre “it from qubit” (parafraseando el “it from bit” de Wheeler). Trataremos de ellas en otro blog.

En resumen, el artículo de Fontana es “pobre en ideas” pero resulta de lectura curiosa. ¡Ánimo a los curiosos!