“The Architect – I am the Architect. I created the matrix. I’ve been waiting for you.”

¿Quién inspiró la película “Matrix”, “The Matrix” (1999), la famosa película de los hermanos Wachowski? La fuente de inspiración tiene que ser la misma para la película “Nivel 13”, “The Thirteenth Floor” (1998), de Josef Rusnak. ¿Quién inspiró “Nivel 13” y “Matrix”? Quizás la película “El mundo en el alambre”, “Welt am Draht” (1973), de Rainer Werner Fassbinder. ¿Quién la inspiró? En este caso es obvio, la novela “Mundo simulado”, “Simulacron-3” (1964), de Daniel F. Galouye.

La novela de Galouye recrea en un “New Orleans” sintético situado en 1937 los viajes en el tiempo y la realidad virtual, en un contexto de una novela políciaca. Una civilización vista a través de un televisor que muestra “muñecos” vivientes basados en personas reales. La película “El mundo en el alambre,” tiene dos partes y la primera termina con el “muñeco” de Einstein afirmando que este mundo “real” junto con sus habitantes es también un modelo artificial que fue creado por una civilización superior.

A qué viene todo esto… me ha resultado curioso encontrar el artículo “Cyborg Systems as Platforms for Computer-Vision Algorithm-Development for Astrobiology,” Patrick C. McGuire, J.A. Rodriguez-Manfredi, E. Sebastian-Martinez, J. Gomez-Elvira, E. Diaz-Martinez, J. Ormo, K. Neuffer, A. Giaquinta, F. Camps-Martinez, A. Lepinette-Malvitte, J. Perez-Mercader, H. Ritter, M. Oesker, J. Ontrup, J. Walter, ArXiv preprint, 2004, cuyo resumen es “Employing the allegorical imagery from the film “The Matrix”, we motivate and discuss our ‘Cyborg Astrobiologist’ research program. In this research program, we are using a wearable computer and video camcorder in order to test and train a computer-vision system to be a field-geologist and field-astrobiologist.“

En la misma línea, pero sin “The Matrix” detrás, tenemos “The Cyborg Astrobiologist: Porting from a wearable computer to the Astrobiology Phone-cam,” Alexandra Bartolo, Patrick C. McGuire, Kenneth P. Camilleri, Christopher Spiteri, Jonathan C. Borg, Philip J. Farrugia, Jens Ormo, Javier Gomez-Elvira, Jose Antonio Rodriguez-Manfredi, Enrique Diaz-Martinez, Helge Ritter, Robert Haschke, Markus Oesker, Joerg Ontrup, ArXiv preprint, 2007, cuyo resumen es “We have used a simple camera phone to significantly improve an `exploration system’ for astrobiology and geology. This camera phone will make it much easier to develop and test computer-vision algorithms for future planetary exploration. We envision that the `Astrobiology Phone-cam’ exploration system can be fruitfully used in other problem domains as well. “

No sé si estoy perdiendo facultades… pero para mí estos artículos rayan más la broma que la Ciencia seria… cosas mías. ¿No ha sido idea de un contratado Ramón y Cajal? ¡Qué cachondo el tío!

http://es.youtube.com/watch?v=28ow4TLMTqM

I’m the trouble starter, punky instigator. I’m the fear addicted, danger illustrated.

I’m a firestarter, twisted firestarter, You’re the firestarter, twisted firestarter.

I’m the bitch you hated, filth infatuated. Yeah, I’m the pain you tasted, fell intoxicated

I’m a firestarter, twisted firestarter, You’re the firestarter, twisted firestarter.

I’m the self inflicted, my detonator. Yeah, I’m the one infected, twisted animator.

I’m a firestarter, twisted firestarter, You’re the firestarter, twisted firestarter. Starter… starter… starter…

Reiner Hedrich, en el artículo “String Theory. From Physics to Metaphysics,” ArXiV preprint, 2002, afirma que “la teoría de cuerdas (…) es una estructura laberíntica de procedimientos matemáticos e intuiciones físicas que se justifican por el hecho de que, al menos formalmente, reproducen la teoría de la relatividad general y el modelo estándar de partículas elementales.” Más aún, “la teoría de cuerdas pretende ser la teoría final que unifique todas las interacciones fundamentales, incluyendo la gravedad, pero, de hecho, se desconocen sus principios físicos subyacentes, por lo que, por el momento, la “teoría” de cuerdas no es realmente una teoría.”

El gran problema de la teoría de cuerdas es, sin lugar a dudas, el problema del landscape (su extrema generalidad), ya que hay evidencias fuertes de que no sólo reproduce la dinámica y las simetrías del modelo estándar, sino también una plétora de diferentes escenarios con muchísimos diferentes dinámicas, modelos y simetrías (se estima que serán del orden 10 elevado a 100, una barbaridad). Es decir, la teoría de cuerdas no sólo describe Nuestro Universo, también describe una “infinidad” de posibles Universos (landscape). El único principio que se puede esgrimir para seleccionar Nuestro Universo entre todos ellos es el Principio Antrópico, nosotros estamos aquí gracias a una combinación muy particular de leyes y constantes fundamentales. En otros universos quizás no son posibles seres inteligentes como nosotros.

La teoría de cuerdas en este sentido es más Metafísica que Física. ¿Podrá el LHC (en el CERN) ofrecernos datos experimentales que devuelvan la teoría de cuerdas al mundo de la Física? La mayoría de los físicos no confían en ellos… excepto los teóricos de cuerdas, claro.

Para los que quieran asistir a conferencias en inglés del mismísimo Ed Witten, os recomiendo.

Future of String Theory,” Edward Witten, KITP Lecture 2004.

Duality, Spacetime and Quantum Mechanics,” Edward Witten, KITP.

Dibujo20151216 snapshot experiment circular road from video camera

La entrada de bitácora “Gran descubrimiento: hay atascos porque hay muchos coches,” nos muestra que los japoneses son un poco “cabezas cuadradas” (o “cabezas circulares”) y hacen cosas que realmente nos llaman la atención. Nos comenta la noticia “An accident? Construction work? A bottleneck? No, just too much traffic,” que se basa en el artículo (de acceso gratuito a todo el mundo) Yuki Sugiyama et al, “Traffic jams without bottlenecks-experimental evidence for the physical mechanism of the formation of a jam,” New J. Phys. 10, 033001 (7pp), 2008.

Leer más

dibujo06marzo2008voyagerpioneer.jpg

Se acaba de publicar un artículo muy interesante de Christina Reed, “Voyagers to the End. The solar system may be dented at the bottom,” SCIENTIFIC AMERICAN, pp. 26-27, March 2008. Permitidme una traducción libre.

El año pasado, tras 30 años en el espacio, la sonda Voyager 2 cruzó por el sur la primera frontera del sistema solar, la onda de choque de terminación, donde el viento solar (un “río” supersónico de partículas cargadas que se alejan del Sol a unos 400 km/s) reduce su velocidad (a unos 300 km/s como resultado de la colisión con el flujo de partículas interestelares), y bruscamente se “corta” (se reduce a unos 150 km/s) donde empieza el espacio interestelar “propiamente” dicho. La sonda Voyager 1 ya la cruzó, pero por el norte. Los resultados indican que esta frontera del sistema solar “no es esférica”, Voyager 2 la encontró a unas 84 UA (unidades astronómicas) mientras que Voyager 1 la encontró a unas 94 UA (recuerda que 1 UA es la distancia media entre el Sol y la Tierra).

¿Por qué el Sistema Solar no es esférico? No se sabe. Una nueva sonda espacial, IBEX, que se planea que será lanzada a mediados de julio tratará de buscar respuestas. Nuestro Sistema Solar todavía tiene muchos secretos que tendrán que ser desvelados.

forces acting on a curving soccer ball

Entre físicos y matemáticos también los hay aficionados al fútbol, el deporte rey, no sólo en España, sino también en Alemania. El artículo de Andreas Heuer and Oliver Rubner, “Fitness, chance, and myths: an objective view on soccer results,” ArXiv, 5 March 2008, estudia los resultados de partidos de fútbol de la Bundesliga desde el punto de vista de la teoría de series temporales. Quieren responder a preguntas como ¿es el campeón siempre el mejor equipo? ¿cuántos partidos se han de jugar en la liga para que “casi” siempre el mejor equipo sea el campeón?

Claro, lo primero es saber ¿cómo se determina cuál es el mejor equipo? Los autores han estudiado 12546 partidos de la Bundesliga entre las temporadas de 1965/66 hasta 2006/07 (tomados de aquí). El promedio de goles por partido es de 3.1 con un descenso en los últimos 20 años a 2.8. Un equipo gana 3 puntos si vence, 1 si empata y 0 si pierde. En la Bundesliga hay 18 equipos con lo que una temporada son N=34 partidos.

Como posibles medidas de calidad, los autores del estudio analizan el número de puntos P y la diferencia entre el número de goles marcados (Gm) y el número de goles recibidos (Gr), sea DG=Gm-Gr. Como la “calidad” de un equipo debería ser un parámetro “propio” del equipo y mantenerse constante entre la primera mitad de la temporada y la segunda mitad, han estudiado el coeficiente de correlación de Pearson (cp) entre los parámetros P, Gm, Gr y DG calculados en los primeros 17 partidos y en los 17 restantes. Un buen equipo lo hará bien en ambos casos. Los autores han mostrado que G tienen un mejor cp (0.58) que P (0.49), Gm (0.49) y Gr (0.46), por lo que parece una mejor medida de la “calidad”. La correlación entre la DG (para toda la temporada) y la P (final) es “buena”. ¿Se mantiene DG constante durante la temporada? Han estudiado cómo evoluciona durante la temporada, dividiendo ésta en 4 partes (9, 8, 9, y 8 partidos), observando que su valor se mantiene “bastante” constante, mucho mejor correlacionados que en una comparación entre sus valores para temporadas diferentes.

Obviamente, el número de goles en un partido concreto entre dos equipos depende de muchos factores “no predecibles”, incluyendo la suerte. Por ello, el resultado de un partido tiene una fuerte componente estadística, sin embargo, la varianza de esta componente no depende del valor de DG, y decrece cuando el número de partidos por temporada N crece (para N grande, la varianza decrece como 1/N). Sin embargo, para 18 equipos hay sólo N=34 partidos, con lo que la contribución estadística de la componente aleatoria en el resultado es importante (superior al 30% en la varianza). De ahí que no sea fácil acertar las quinielas. La suerte es un factor importante.

¿Es cierto que el equipo 1 con mayor “calidad”, DG1 > DG2, es “mejor” que el equipo 2? Los datos muestran que DG1-DG2=0.35 (unos 12 goles de diferencia tras 34 partidos) aún permiten que el “mejor” equipo sea el que tiene menor DG2 incluso hasta un 24% de las veces. Los autores lo justifican debido a que N es pequeño y no como un desmérito a su medida de “calidad”.

Utilizando DG como métrica, analizan tres mitos del fútbol.

¿Realmente hay equipos más fuertes en casa (o fuera de casa)? Es decir, ¿la “calidad” DG de un equipo determina su “calidad” en casa DGC (o fuera DGF)? Los datos históricos utilizados no soportan este “mito”. En media, los equipos se comportan igual en casa y fuera de casa, tanto si son de “calidad” alta como baja.

¿Hay equipos “buenos” porque tienen mejor delantera y peor defensa (o con mejor defensa y peor delantera)? Sorprendentemente los datos históricos tampoco soportan esta opinión, tan común en el mundo del fútbol. Los de calidad “alta” tienen tanto buena defensa como buena delantera.

¿Que un equipo gane (o pierda) muchos partidos seguidos refuerza (o reduce) las posibilidades de ganar en el próximo partido? Sólo en el caso de pérdida se ha confirmado este efecto, aunque es bastante pequeño. El coeficiente DG de un equipo que ha perdido muchas veces baja un poco si se le compara con su nivel normal. El efecto positivo parece que no ha sido observado en los resultados experimentales.

En resumen, un artículo que introduce una “métrica de calidad” de un equipo de fútbol, que, como cualquier medida que reduce los comportamientos humanos a un sólo número, es muy discutible, pero que los autores utilizan para analizar ciertos mitos del fútbol y les permite obtener ciertas sorpresas.

¿Es el campeón siempre el mejor equipo? No, ya que 34 partidos por temporada son “pocos” y la componente aleatoria (suerte) en los partidos es muy grande (varianza superior al 30%).

¿Cuántos partidos se han de jugar en la liga para que “casi” siempre el mejor equipo sea el campeón? La varianza siempre es mayor del 20%, incluso jugando “infinitos” partidos (extrapolando los resultados para 1/N=0), luego es imposible evitar que en muchos casos el “mejor” equipo no sea el campeón.

Acertar la quiniela seguirá siendo una “alegría” para todos.

dibujo06marzo2008buckstanley.jpg ¿Qué tienen en común Linda Buck y Gene Stanley?

Hasta los Premios Nobel se retractan de artículos en Nature (Heidi Ledford, “Nobel prizewinner’s paper retracted,” Nature 452, 6 March 2008 ). La Premio Nobel Linda Buck se ha retractado (Retraction, Nature 452, 6 March 2008) de uno de sus artículos publicados en esta prestigiosa revista (Z. Zou, L. F. Horowitz, J. -P. Montmayeur, S. Snapper and L. B. Buck, “Genetic tracing reveals a stereotyped sensory map in the olfactory cortex,” Nature 414, 173-179; 2001).

Los autores dicen que han tratado de reproducir (con objeto de extender) los resultados del artículo, siendo incapaces de lograrlo. Más aún, han encontrado inconsistencias entre algunos de las figuras y los datos publicados en el artículo respecto a los datos originales (que sólo ellos conocían y atesoraban). Por tanto, se retractan del artículo y de las conclusiones derivadas del mismo.

¿A quién le echan la culpa? ¿A la Premio Nobel? No, ni mucho menos. Dejan claro cuáles “fueron” las contribuciones de cada autor, indicando que el primer autor Zhihua Zou es el ÚNICO responsable de los datos y las figuras del artículo. La segunda autora, Lisa Horowitz, continúa trabajando con la “Nobelada” Linda Buck, sólo intervino en el diseño del experimento. Linda Buck reconoce que “escribió” el artículo junto al propio Zou, nada más. ¿Realmente escribió el artículo y no chequeó los datos? ¿Esta “debe” ser la práctica de todo un “poppe”?

Las preguntas son muchas… ¿Se aceptó el artículo “con facilidad” porque lo firmaba un Premio Nobel? ¿Debe un Premio Nobel “leerse” y “chequear” los artículos que “escribe” y firma como autor? ¿Descontará la Dra. Buck de su currículum vitae dicho artículo, que tiene 138 citas y que es el número 13 por número de citas de toda su producción científica? [su artículo más citado tiene 1532 citas y su índice-h es de 28].La Dra. Buck, cual Pilatos, se limpia las manos. ¿Realmente tiene limpias las manos? No todo queda aquí. Para curarse en salud, además ha pedido “una caza de brujas” contra Zou (que se proceda a analizar sus últimas publicaciones no vaya a ser que haya realizado la misma “trampa” más de una vez).

Pero la cosa no se queda aquí… si buscamos las últimas publicaciones de Zou, ¡¡ tatachán !! un artículo en Science en 2006 cuyo único autor es la propia Linda Buck (citado 31 veces) y ¡¡ tatachán !! un artículo en PNAS en 2005 cuyo único autor también es la propia Linda Buck (citado 35 veces) y ¡¡ tatachán !! un artículo en Cell en 2005 con dos co-autores, uno de ellos la propia Linda Buck (citado 36 veces). ¿Qué pasa con Linda Buck? ¿No se “lee” los artículos que publica? ¿No “chequea” los resultados que afirma en sus artículos? ¿Cumple con sus obligaciones como co-autora? ¿Es el único culpable Zou de aprovecharse de una co-autora Nobelada?

Los artículos retractados (en revistas de prestigio como Nature) son algo que se está popularizando más de la cuenta. En mi opinión debido a la presión del “publish or perish” que está obligando a los autores a, cual futbolistas, marcarle “goles” a los revisores y “colar” artículos, en muchos casos, bastante discutibles (pero a las revistas les gusta los artículos “discutibles” pues acaban siendo citados muchas más veces).

Hasta en la Universidad de Málaga encontramos artículos retractados y ¡¡tatachán!! también en Nature: Pedro Carpena, Pedro Bernaola-Galván, Plamen Ch. Ivanov, and H. Eugene Stanley, “Metal-insulator transition in chains with correlated disorder,” Nature 418, 955-959 (2002), que fue “parcialmente” retractado (Retraction, Nature 421, 764 (2003)). Parece ser que dos investigadores, L. Hufnagel y T. Geisel, tratando de reproducir parte de los resultados numéricos obtenidos, que dan lugar al título del artículo y que podemos considerar la parte “fundamental” del mismo, no lograron observar el umbral (límite termodinámico) entre metal y aislante observado por los malagueños. En la retracción observan que se trataba de un efecto “numéricamente inducido”, un artefacto de las simulaciones numéricas, que debían simular un sistema desordenado (según el título del artículo) que en realidad no lo era. De ahí la transición “ficticia” observada. Por esa razón los “authors retract the claim of a metal-insulator transition in the infinite binary chain with correlated disorder”.

Sin embargo, los autores malagueños se curan en salud, indicando que la segunda parte del artículo (no mencionada en su título, relativa al ADN, y que ha sido citada por muchos autores posteriormente) sigue siendo correcta. Si el título del artículo hubiera sido otro, como tenía que haber sido, ¿lo habrían aceptado en Nature?

Para los amantes de las cifras indicaré que el artículo malagueño ha sido citado 77 veces y que la retracción lo ha sido ¡¡ 17 veces !! El artículo más citado de Pedro Carpena tiene 184 citas (un PRE) también junto con Ivanov, el más citado de Pedro Bernaola-Galván es el Nature retractado, el más citado de Plamen Ivanov es un Nature con 296 citas, después viene el PRE con 184, siendo el Nature retractado el séptimo ordenado por citas, y finalmente el genio de Gene Stanley tiene un PRE con 587 citas, el artículo retractado de Nature, ordenado por índice de citas, es solamente su artículo 101-ésimo, alcanzando un índice-h de ¡¡tatachán!! 87. Sí, si a H. Eugene Stanley le quitamos de su CV el artículo con los malagueños, ni lo nota. ¡¡Patachín, patachán!! Pero los malagueños, sí que lo notarían…

By the way, la Universidad de Málaga sólo tiene 3 artículos en Nature: “The genome sequence of Schizosaccharomyces pombe,” (2002), citado 519 veces, entre muchos autores hay un malagueño; “Mesoscale vertical motion and the size structure of phytoplankton in the ocean,” (2001), citado 47 veces, cuyo primer autor también es malagueño; y el ya mencionado que ha sido retractado. ¡¡ Lo confieso, envidio a quienes publican en Nature !!

dibujo04marzo2008rosetta.jpgSonda espacial Rosetta (ESA)

Se acaba de publicar un nuevo resultado en relación a la anomalía de las sondas Pioneer (de la que ya hemos hablado en este blog), más en concreto en una anomalía similar en varias sondas (Galileo, NEAR, Cassini, Rosetta, y Messenger) de sólo unos milímetros por segundo de desviación en la velocidad esperada en acercamientos de estas sondas a la Tierra, Earth flybys, utilizados para acelerar estas sondas y “catapultarlas” a su destino (Geoff Brumfiel, “Anomalies spotted in spacecraft flight,” Nature News, 4 March 2008). La explicación que dimos (radiación térmica anisotrópica en la sonda), quizás explique el efecto, todavía no lo sabemos, se requiere un estudio térmico de cada una de estas sondas, todavía por realizar, pero lo que parece cierto es que el efecto es “verdadero”, como se acaba de publicar el 3 de marzo de 2008 en John D. Anderson, James K. Campbell, John E. Ekelund, Jordan Ellis, and James F. Jordan, “Anomalous Orbital-Energy Changes Observed during Spacecraft Flybys of Earth,” Physical Review Letters, 100: 091102 (2008). Lo que se necesita es una explicación.

Cuando estas sondas pasan cerca de la Tierra, se observan desviaciones pequeñas, pero superiores a los errores sistemáticos de medida, en su velocidad y dirección respecto a los modelos teóricos. Los autores del artículo PRL, del Laboratorio de Propulsión a Chorro (JPL) de la NASA, Pasadena, California, han observado errores en velocidad del orden de milímetros por segundo para sondas espaciales que se mueven a velocidades de kilómetros por segundo, todo un logro de la técnica gracias al uso del efecto Doppler en las señales de radio recibidas desde la sondas, como dice el IP (investigador principal) del estudio John Anderson “It’s small, but you can see it clearly in the data.”

En mi opinión las respuestas esotéricas (cambios en la ley de gravitación universal o nuevas leyes físicas) son menos razonables que meros “errores” de modelado, que se hayan despreciado efectos, supuestamente muy pequeños, que se acumulan y en realidad no lo son, más aún teniendo en cuenta lo extremadamente pequeño de la desviación observada.

dibujo04marzo2008near.png

John D. Anderson y su equipo han observado que los cambios en la energía orbital de las sondas estudiadas son proporcionales a la energía orbital total por unidad de masa, obteniendo una fórmula empírica muy sencilla para “modelar” el efecto (mostrada en la figura de arriba, que muestra la trayectoria más asimétrica de las estudiadas, correspondiente a la sonda NEAR). No hay explicación (todavía) para esta fórmula. Se conoce el efecto, pero nadie conoce la causa. El tiempo dirá. Tiempo al tiempo.

¿Por qué engordamos? Porque comemos (ingerimos) más de lo que necesitamos (consumimos). ¿Cuál es la mejor manera de adelgazar, la mejor dieta? Comer menos. Lo mejor es hacerlo reduciendo de forma gradual la ingesta (por supuesto, es conveniente no comer entre horas, no comer “chucherías”, etc.) buscando alcanzar poco a poco un equilibrio entre lo que comemos y lo que gastamos. La mayoría de las dietas tratan de disociar alimentos que nomalmente tomamos juntos, con objeto de que nos “guste” menos lo que comemos (todo el mundo se queja cuando está a dieta) y de esta forma que comamos menos (como en España todo el mundo come con pan, la mayoría de las dietas prohiben comerlo, que por cierto, ahora está carísimo con la “excusa” del bioetanol).

El artículo de Carson C. Chow and Kevin D. Hall, “The dynamics of human body weight change,” ArXiv preprint (Submitted on 21 Feb 2008), presenta un modelo matemático muy sencillo del equilibrio entre lo que comemos, lo que gastamos, y lo que engordamos. Aunque el modelo es muy sencillo creo que es interesante dada la gran importancia del problema de la obesidad en toda las sociedades occidentales.

dibujo01marzo2008ecuasobesidad.png

El artículo presenta tres modelos típicos, pero considera que el último, el más sencillo, bidimensional (llamado modelo de la partición de energía, últimas ecuaciones en la figura de arriba) es suficiente general como para ser considerado la reducción más plausible de cualquier modelo que se desarrolle. Analizan dicho modelo con detalle. Este modelo presenta dos posibles soluciones (atractores) a largo plazo, uno en el que la cantidad de grasa en el cuerpo y el peso están unívocamente determinados y otro en el que la cantidad de grasa almacenada puede tener un valor arbitrario. Sorprendentemente, las perturbaciones en la ingesta (lo que comemos) o en nuestra actividad física (lo que gastamos) puede conducir a los mismos resultados experimentalmente en ambos modelos, no permitiendo distinguir entre ambas posibilidades. Este resultado implica que es difícil saber para un dietista si una dieta y un plan de ejercicios concretos nos hará adelgazar o no. El modelo por tanto abre la puerta a la necesidad de desarrollar modelos más refinados que pueden ser incorporados a la práctica clínica.

Más técnicamente el modelo matemático estudia los equilibrios de los flujos de macronutrientes, en concreto grasas, proteínas y carbohidratos, permitiendo estimar cómo cambia el peso corporal a lo largo del tiempo mediante un sistema dinámico en tiempo continuo (modelo compartimental o de parámetros concentrados). Tomando un espacio de fases (estados) bi-dimensional, fijando la ingesta y el nivel de actividad física, el peso corporal y la composición corporal (en macronutrientes) se aproximan a dos tipos de atractores posibles. Por un lado, un estado estacionario de dicho modelo(punto de equilibrio mostrado en el plano de fases (a) en la figura de abajo), que permite que el peso corporal esté fijado unívocamente y la posibilidad de recuperar dicho peso ante perturbaciones (en la ingesta, una “comilona”, o en la actividad física, un “sobresfuerzo”). Por otro lado, a una variedad invariante (mostrada en la parte (b) de la figura de abajo, donde la línea de puntos es la variedad invariante), en la que el peso puede tomar un valor arbitrario, de forma tal que una perturbación puede cambiar permanentemente el peso y/o la composición del cuerpo (cambiar la variedad invariante).

dibujo01marzo2008phaseplaneobesidad.png

El artículo propone que los dos comportamientos observados en su sistema dinámico son genéricos y modelos más refinados sólo tendrán comportamientos más exóticos (múltiples estados de equilibrio, ciclos límite, o incluso caos determinista) si se hace una ajuste fino de los parámetros, luego serán modelos menos plausibles.

Hablando de comer y engordar… quizás te preguntes ¿por qué en la primera figura de esta entrada “el gordo” aparece con una bebida con pajita en la mano? Porque es bien conocido que las bebidas gaseosas azucaradas contribuyen de forma significativa a la energía consumida en nuestra dieta, facilitando un desequilibrio positivo, es decir, que engordemos. Además, los estudios científicos (por ejemplo, D. P. DiMeglio and R. D. Mattes, “Liquid versus solid carbohydrate: effects on food intake and body weight,” International Journal of Obesity (2000) 24, 794800) parecen indicar que nuestro cuerpo absorbe mejor los carbohidratos ingeridos de forma líquida (sodas y bebidas carbonatadas) que de forma sólida (por ejemplo, con platos de alubias).

No ví el debate de ayer. Creo que ya tengo claro a quien votar.

Preferí ver “Charada” de Stanley Donen, con Audrey Hepburn y Cary Grant (en Canal Sur 2 de Andalucía).

¿Qué es el voto útil? ¿Son todos los votos iguales? La idea del voto útil es que el sistema electoral español, basado en escaños por provincias, permite que ciertos votos no se reflejen directamente en escaños y por tanto “aparentemente” sean un voto “inútil”.

Si te interesa, puedes utilizar el Utilómetro, donde se afirma que “¿En 2004 Izquierda Unida obtuvo el el 5,1% de los votos (en toda España) pero sólo el 1,4% de los escaños? … ¿Que en cambio el PNV obtuvo el 1,6% de votos y el 2,0% de los escaños?”

Si quieres saber mi opinión …

VE A VOTAR. VOTA. Vota a quien más te guste, quien más rabia te dé, “a tu partido”, “a tu candidato”, … pero “pasa olímpicamente” del voto útil. Es un chorrada. En democracia todos los votos son útiles. Son la expresión del Pueblo, y tan útil es muy voto como el tuyo independientemente de a qué partido votemos.

Si quieres que tu voto sea “realmente útil”, afíliate, haz campaña, convence a tus vecinos, a tus conciudadanos, logra que “tus” ideas adquieran el status de “las” ideas, … si logras que varios miles de personas voten lo que tú vas a votar, entonces lo habrás logrado. Así harás que tu voto sea realmente útil.

Pero si no quieres molestarte y los partidos “te la sudan”. VE A VOTAR. VOTA. Vota a quien más te guste, quien más rabia te dé, “a tu partido”, “a tu candidato”, … pero “pasa olímpicamente” del voto útil.