La mayoría de los ordenadores actuales utilizan microprocesadores con tecnología basada en transistores de efecto de campo FET de tipo MOS (metal-óxido-semiconductor). La tecnología microelectrónica más utilizada en la actualidad es la CMOS. El parámetro característico de un transistor MOS es la longitud del canal. Hasta hace poco se pensaba que era imposible bajar de una 1 micra para la longitud del canal, pero actualmente es fácil encontrar procesadores (los últimos de Intel) con 0,13 y hasta 0,08 micras (unos 80 nanómetros). La cuestión es, ¿se puede fabricar un transistor con una longitud de canal de pocos nanómetros? La física del estado sólido estándar no lo permite (requiere que por el canal pase un flujo de miles de electrones). Sin embargo, la nanotecnología ofrece varias posibilidades, siendo la más prometedora los transistores de nanotubos. Xinran Wang et al. “Room-Temperature All-Semiconducting Sub-10-nm Graphene Nanoribbon Field-Effect Transistors,” Phys. Rev. Lett. 100, 206803 ( 2008 ), presentan los transistores de efecto de campo basados en canal de nanotubos de menos de 10 nanómetros (sí, 0,01 micras), que tienen bastantes ventajas respecto a otros nanotransistores basados en nanotubos permitiendo todo tipo de dispositivos semiconductores. La tecnología GNFET dará bastante que hablar en el futuro.

Los transistores de efecto de campo FET basados en tecnología del grafeno son una de las tecnologías más prometedoras a la hora de sustituir a los transistores FET de los procesadores actuales. Los autores del artículo, por primera vez, han logrado fabricar con esta tecnología transistores con longitud de canal menor de 10 nm. La figura de abajo muestra la gran linealidad de las curvas de caracterización de estos nuevos transistores. La fabricación masiva de este tipo de transistores tardará unos años en llegar pero por ahora se encuentran entre las tecnologías más prometedoras.

¿Por qué simular? ¿Para qué simular? ¿Cuándo simular? ¿Se puede simular el voto en Eurovisión? ¿Sirve para algo? El artículo de Derek Gatherer, “Comparison of Eurovision Song Contest Simulation with Actual Results Reveals Shifting Patterns of Collusive Voting Alliances,” Journal of Artificial Societies and Social Simulation, vol. 9, no. 2, 2006, trata de ofrecernos una respuesta a estas preguntas. El artículo, en inglés, está gratuito en Internet (por si te interesa el análisis estadístico realizado). Veamos la primera figura de resultados.

La figura muestra diagramas de Venn mostrando los “amigos” que se votan “por costumbre” a un nivel estadístico de confianza del 95% para una ventana de 6 años entre 1975 y 1980, seguidos de cuatro ventanas de 5 años consecutivos hasta el año 2000. GB: Reino Unido, FR: Francia, IL: Israel, DE: Alemania Oriental, SE: Suecia, GR: Grecia, CY: Chipre, DK: Dinamarca, NL: Holanda, IE: Irlanda, ML: Malta, HR: Croacia, SL: Eslovenia, MK: Macedonia, IS: Islandia, NO: Noruega, EE: Estonia.

El Imperio Vikingo está coloreado en azul claro empieza con la “amistad” DK-SE en 1986-1990, desaparece en 1991-1995 y se reagrupa rápidamente en una “amistad” a 5 bandas (coalición) en 1996-2000. El bloque de los balcanes (naranja) se origina 1991-1995 como un grupo ad hoc agrupando ML-HR, pero en 1996-2000, HR logra adicionar a las extintas repúblicas yugoslavas SL y MK, centrando el bloque báltico en Yugoslavia. La “amistad” GR-CY (rosa) se ha mantenido desde 1986-1990 en adelante.

La figura muestra diagramas de Venn entre los países “amigos” a un nivel de confianza 95%, para una ventana de 5 años entre 2001 y 2005. NL: Holanda, BE: Bélgica, ES: España, AD: Andorra, TR: Turquía, BH: Bosnia-Herzegovina, HR: Croacia, SL: Eslovenia, MK: Macedonia, AL: Albania, CS: Serbia y Montenegro, GR: Grecia, CY: Chipre, RO: Rumanía, PL: Polonia, UA: Ucrania, RU: Federación Rusa, LI: Lituania, LA: Letonia, EE: Estonia, FI: Finlandia, SE: Suecia, DK: Dinamarca, NO: Noruega, IS: Islandia. El núcleo de la coalición de los balcanes (en naranja) es la alianza triple las repúblicas ex-yugoslavas CS, HR y MK (rosa)

El sistema de votación por televoto ha conducido a la aparición de un gran número de coaliciones desde 2001 y al crecimiento de las existentes. El imperio vikingo se ha expandido hacia el este y hacia el sur hasta incluir a Finlandia, Letonia y Lituania. En el este, el antiguo “Pacto de Varsovia” ha conducido a la alianza entre Rusia, Polonia y Ucrania. En el oeste, se han “hermanado” España y Andorra. En el norte-centro de Europa lo han hecho Holanda y Bélgica. Lo más sorprendente es el increíble crecimiento del bloque balcánico en tan sólo 2 o 3 años. Por un lado, se le han incorporado los eternos “hermanos” Grecia y Chipre. En el corazón del bloque de los balcanes siguen estando Serbia, Croacia y Macedonia. Pero los antiguos yugoslavos del núcleo del bloque balcánico también han logrado que se les arrimen Rumanía y Albania.

¿Cómo evolucionarán estas coaliciones? Sólo el tiempo lo dirá. ¿Puede hacer algo la EBU (unión europea de cadenas de televisión) para reducir el efecto de estas coaliciones? Un retorno a los jurados técnicos es muy difícil dada la gran repercusión económica del televoto. Una posibilidad curiosa sería no sólo prohibir el voto al propio país sino también a todos los países del entorno más afin, pero dado el chovinismo de muchos países europeos sería imposible que implantaran un sistema de este tipo. De todas formas, el fuerte poder del voto de los emigrantes turcos, griegos y de la extintas repúblicas yugoslavas, en gran parte distribuidos por toda europa, sería muy difícil de evitar incluso si se penalizan de alguna forma las coaliciones. El problema es de difícil solución.

RTVE – Geopolítica eurovisiva.

Sofronis Clerides, Thanasis Stengos, “Love thy Neighbor, Love thy Kin: Strategy and Bias in the Eurovision Song Contest,” IDEAS, 2006, han analizado el voto en Eurovisión, 1981-2005, encontrando que hay una fuerte evidencia de que los países se agrupan en clusters que sistemáticamente intercambian votos independientemente de la calidad de las canciones y/o actuaciones. Estudian factores culturales, geográficos, económicos y políticos, así como la posición en la parrilla de emisión, el idioma de la letra, o el género del participante. Sorprendentemente encuentran que no hay evidencia de estrategias o alianzas de voto previos a la votación.

El artículo es muy interesante y los autores se atreven a afirmar “but also because musically the contest is mediocre at best, many people would argue that the most exciting part of the ESC is not the singing but the voting,” (el festival es musicalmente mediocre por lo que la parte más interesante es la votación), lo que está de acuerdo con los índices de audiencia. Lo más interesante del festival para los investigadores en redes sociales es que “the festival itself constitutes an example of a truly international forum where a country can express an opinion about another country, free of political or economic considerations” (el festival es un foro en el que se observa la opinión de un país sobre otros países vecinos). El análisis estadístico de los autores supone que todos los países participantes tienen la misma probabilidad de producir buenas y malas canciones, es decir, que en una votación “justa” los resultados serían completamente aleatorios. Algo, obviamente, que no es verdad. Aunque la globalización está tendiendo a ello.

En el caso ideal, como hay 58 puntos en juego (12+10+8+7+…+1) y N países, el número medio esperado de puntos por país (o participante) es de 58/(N-1), que para 23 participantes (media en los últimos 25 ediciones) resulta que cada país debería recibir unos 2.64 puntos de cada uno de los demás países. Si un país en media puntúa mucho más de 3 puntos a otro país es que hay un claro sesgo. Por ejemplo, Chipre y Grecia se puntúan más de 10 puntos entre ellos (clara afinidad), pero Rumania y Letonia nunca se han puntuado entre sí (obviamente, datos del estudio de 1981-2005).

Se puede construir una red de afinidades (alianzas) entre países. Los países se han colocado en su posición geográfica aproximada (con ciertos ajustes para facilitar la visibilidad del grafo) y se han conectado el país A y el B con una flecha desde A si este país ha dado al menos 6.1puntos (la media más dos desviaciones típicas) como media en todos los certámenes en los que han participado ambos.

La figura muestra claramente varias alianzas o grupos de países. Por un lado los países nórdicos (Sweden, Finland, Norway, Denmark, Iceland and Estonia), las antiguas repúblicas soviéticas (Estonia, Latvia, Lithuania, Moldova, Russia, Ukraine), y las antiguas repúblicas yoguslavas (Bosnia-Herzegovina, Croatia, FYR Macedonia, Slovenia, Serbia & Montenegro).

Ninguna flecha apunta hacia España, aunque teníamos cierta preferencia hacia Italia (cuando participaba, claro).

Los autores han desarrollado un análisis econométrico tratando de identificar la razón de estos clusters de países en función de dos factores: la afinidad o simpatía que una país siente hacia otro y la calidad percibida en la canción a concurso. Este último factor lo han dividido a su vez en la calidad objetiva (atribuible a parámetros propios de la canción) y la calidad subjetiva (debida a la idiosincracia y preferencias del país por cierto tipo de canciones). Para la afinidad entre países han estudiado factores como la proximidad (si hay frontera común es 0 sino la distancia entre los aeropuertos de sus capitales), el idioma del país, la religión, las relaciones tipo colonia o colonizador, o si es el país anfitrión. Para las preferencias en relación a la canción han tenido en cuenta si es o no en inglés, un intérprete masculino solo, uno femenino, un dueto, un grupo, así como la posición de intervención.

Los resultados son muy interesantes, aunque no puedo resumirlos todos. La afinidad entre países es un factor muy importante en las votaciones, pero sorprendentemente es más importante la afinidad cultural qeu la proximidad geográfica. El estilo de la canción también es un factor muy importante. El idioma preferido es el inglés (esto era una desventaja cuando era obligatorio que la canción de un país fuera en su idioma propio, hace años que eliminaron esta restricción). El orden de aparición también es importante, y los últimos son más votados que los primeros. Ser el país anfitrión también influye en recibir más votos. Las intérpretes femeninas reciben más votos que los masculinos, además se prefieren los duetos a los grupos.

Han testeado varias hipótesis. ¿Qué es más justo el voto de un jurado “técnico” (pre-1998 ) o el televoto público (post-1998 ) ? Claramente, todas las variables que miden la afinidad entre países son mucho más relevantes en el voto tras 1998. El idioma inglés en la canción era más importante antes de 1998. Ser intérprete femenina era más importante antes de 1998 y ahora menos.

¿Hay alianzas entre países para premiar las canciones (de países afines) que se encuentran entre TOP5 de los favoritos antes del festival? Por ejemplo, este año Rusia partía de favorita. ¿Se han puesto los países del eje ex-soviético de acuerdo para votar más a este país y lograr que gane? De este año no tenemos datos pero los autores desde 1981-2005 no encuentran evidencia estadística de este tipo de estrategias de voto. Sin embargo, antes de 1998 sí encuentran estrategias del tipo, este año te voto yo y el próximo vótame tú (sí cuando el jurado era “técnico”). Ahora que vota el público parece que “todos” tenemos menos memoria colectiva.

¿Se pueden corregir los resultados de las votaciones eliminando los sesgos que se han encontrado? Los autores se atreven y ofrecen su propuesta de reordenación “justa” de los participantes (por supuesto, algo muy discutible como cuando una tortilla me la como yo pero digo que te has comido la mitad). Acabaré con sus resultados para los años 1998 (16º puesto de Mikel Herzog, hubiera quedado 10º) y 2004 (10º puesto de Ramón, hubiera quedado 4º).

http://www.youtube.com/watch?v=sKN96LxDRso

El puesto 16 para España en Eurovisión, ¿es el mejor puesto posible? ¿Puede España alcanzar un puesto mejor con el nuevo sistema de votaciones vía SMS del eurofestival. ¿Debería España hacer como Italia y “abandonar” el festival? Obviamente RTVE es la gran ganadora del festival (casi 14 millones de espectadores vieron la actuación de Chikilicuatre en La 1). La 53 edición marcó más de 9,3 millones de fieles seguidores desde las 21:00 hasta las 00:17 horas de la noche (9.336.000). La cadena registró una impresionante cuota de pantalla del 59,3% durante algo más de 3 horas.

Muchas voces reclaman que un jurado técnico (si no substituyendo al jurado SMS público, al menos complementándolo) es una necesidad para revitalizar al festival y lograr que vuelva a sus mejores tiempos. ¿No está ahora en sus mejores tiempos (minuto de oro del día, 22:35: 13.873.000 y 78,1%)?

Se lleva discutiendo muchos siglos (desde “La República” de Platón) si sólo los expertos deben juzgar la calidad de las obras de arte o de los productos culturales, o si por el contrario podemos confiar en los gustos del público general. El artículo de MARCO A. HAAN, S. GERHARD DIJKSTRA and PETER T. DIJKSTRA, “Expert Judgment Versus Public Opinion – Evidence from the Eurovision Song Contest,” Journal of Cultural Economics, 29: 59-78, 2005, trata de contestar a esta pregunta utilizando el Concurso de la Canción de Eurovisión. Los autores muestran que el juicio de los expertos es mucho menos sensible que el público llano a factores no relacionados con la calidad (como todo el mundo sabe). Aunque el estudio también muestra que el juicio de los expertos también depende de dichos factores (al menos empíricamente en las finales de Eurovisión). Os recuerdo que este concurso de la European Broadcasting Union (EBU) hasta 1998 solicitaba de cada país un un jurado de “expertos”, pero desde entonces en la mayoría de los países se implantó la elección mediante un “jurado popular” (comercialmente más rentable). Os recuerdo también que desde 1960 hasta 1998, los miembros del jurado podían oir las canciones antes del festival, pero no ver su interpretación. Hasta 1998, la ejecución en directo en el Festival sólo podía utilizar la música interpretada por la orquesta sinfónica que el país organizador seleccionaba. El “televoto” fue introducido en 1998 consiste en que cada ciudadano de los 43 países miembros de la EBU que participan en el Festival (aunque no estén en los 25 de la final) realiza una llamada telefónica o envía un SMS con su voto (cada hogar sólo puede enviar 3 votos).

Los autores del artículo han estudiado todos los festivales con jurado “técnico” desde 1957-1997 y los que utilizaron televoto entre 1998-2002 (pero no a todos los países, por ejemplo, España no ha sido tenido en cuenta, pero sí Portugal). Si el jurado técnico tomara la decisión en términos de méritos de calidad de la canción exclusivamente, el resultado final sería completamente independiente del orden de aparición del cantante (aleatorio). Evidentemente, todo el mundo sabe que este no es el caso. El estudio estadístico muestra claramente este hecho, resultando que una canción que aparece al final tiene un 12% más de posibilidades de ganar que una que aparece al principio. Sólo se salvan los primeros entre los primeros (o los últimos entre los últimos) que tienen una posición final mejor de la que estadísticamente se esperaría para los primeros (o los últimos). Este resultado se ha comprobado en muchos otros concursos de canciones o musicales. Aparentemente, cualquier jurado recuerda mejor las últimas interpretaciones, aunque las primeras también “resuenan” en la mente.

La primera conclusión interesante del artículo es que el orden de aparición afecta más al voto del público que al de los expertos. El análisis de regresión realizado lo muestra claramente (ver figura 1 del artículo). La conclusión más importante del estudio es que sin ambigüedad estadística los expertos juzgan mejor la calidad que el público en general (les afectan menos factores externos como el orden en que se concursa). Aunque, por supuesto, su juicio no es perfecto.

El tema de Eurovisión dárá más que hablar en este blog. Lo prometo.

A bote pronto se me ocurre una barbaridad. Una posibilidad para que España gane quizás sea que España “deje de ser” España y se convierta en una República de Comunidades Autónomas (similar a la ex-Yugoslavia o la ex-Repúblicas Soviéticas). En este caso, nuestras Autonomías lograrían que ganara una de nuestras Televisiones Autonómicas y España reinaría el festival. A muchos no gustará esta idea.

Otra propuesta descabellada. ¿Has votado en Eurovisión? Probablemente no. ¿Por qué? Porque no eres emigrante. Los países que tienen muchos emigrantes, pongamos de Rumanía, votan preferentemente a Rumanía (a quién se ha votado más en España). Claramente ganan los países que tienen más emigrantes. Otra posibilidad para que volvamos a ganar es que emigremos… o que nos vayamos de vacaciones por Europa el día de la votación. ¿Qué tal visitar Moscú el año que viene?

Si eres malagueño quizás te gustará pasarte el próximo 28 MIERCOLES a la 20:00 por la LIBRERÍA LUCES donde “Carlitos” (Charlie) presentará su FAMOSO libro “1964”. El acto será orquestado por José Luis González Vera, conocido y querido escritor, poeta, filólogo, columnista y buen bebedor de cerveza (mientras el cambio climático no afecte significativamente a su producción, a los bebedores australianos seguramente sí les afectará).

http://www.edicionesartime.com/novelas/novela_1964.htm

“Sídney (Australia), 8 abr (EFE).- El precio de la cerveza se incrementará en las próximas décadas dado que el cambio climático perjudicará a la producción de cebada de malta, ingrediente esencial de esa bebida alcohólica, según un estudio de un científico de Nueva Zelanda. Jim Salinger, experto medioambiental del Instituto del Agua e Investigación Meteorológica neozelandés, señala en el informe divulgado hoy, que el calentamiento global destruirá gran parte de los cultivos del citado cereal en Oceanía.” (menéame).

No, esta no es la mejor manera de aparcar.

Aparcar el coche en el centro de cualquiera de nuestras ciudades es un GRAN problema. La manera clásica de tratar de resolver este problema matemáticamente es el modelo del “aparcamiento aleatorio” (random car parking model) de Renyi. Este modelo ignora un parámetro importante a la hora de elegir aparcamiento, la distancia entre coches (ya aparcados o la que estimamos que dejaremos cuando lo logremos). Este modelo teórico predice que la función densidad de probabilidad p(D) para la distancia entre coches D crece hacia infinito conforme D decrece a cero, lo que obviamente es irrealista. De hecho los datos experimentales en múltiples ciudades mustran que p(D) decrece a cero conforme D lo hace. Petr Šeba, “Parking in the city: an example of limited resource sharing,” ArXiv preprint, 10 Apr 2008, trata de solventar este defecto del modelo de Renyi.

Petr estudia el proceso de aparcar el coche en el centro de una ciudad como si se tratara de un problema de gestión de recursos compartidos o limitados (el espacio disponible de asfalto reservado para aparcar). De esta forma muestra cómo determinar una distribución de probabilidad para predecir la distancia entre coches aparcados que depende de la longitud del segmento de calle reservado para aparcar. El modelo le permite demostrar que existen principios psicofísicos generales que guían las maniobras que realizamos al aparcar nuestro coche. Estos principios han sido determinados y validados analizando el proceso de aparcamiento en una pequeña ciudad checa, Hradec Kralove (el autor es checo).

Técnicamente, Petr interpreta el proceso de aparcar como un partición estadística del espacio limitado como parking entre las personas que compiten entre sí intentando aparcar. La partición es descrita mediante una distribución de Dirichlet con parámetro g. Este parámetro está fijado por la capacidad del conductor de aparcar en espacios muy “justos” logrando un aparcamiento con una distancia entre coches muy pequeña. El modelo matemático le permite obtener la distribución del espaciado entre coches como una solución en estado estacionario del proceso de aparcamiento / desaparcamiento. En promedio, si un coche mide L metros, se necesitan 1.3*L metros para poder aparcar satisfactoriamente. Su modelo conduce a que la probabilidad p(D) sigue una distribución beta, que es una distribución fuertemente asimétrica. En este caso caracterizada por un parámetro g=3. Petr trata de justificar este parámetro aludiendo a la teoría de la percepción binocular de la distancia, siendo esta parte psicofísica del modelo la más susceptible a crítica. Las datos tomados experimentalmente que presenta para confirmar su hipótesis, en mi opinión, son bastante dudosos. Aún así, el artículo es de gratificante lectura y por tanto recomendable.

La figura muestra (A) el proceso de fabricación de circuitos CMOS ultrafinos que utilizan nanotiras (nanoribbons) de silicio de gran flexibilidad ante dobleces y que se pueden estirar/comprimir recuperando su forma original. (B to D) Fotografías de algunos de los circuitos fabricadods. En (B) aparece un recuadro (inferior derecha) que muestra un único inversor CMOS. Estos circuitos se pueden (C) enrollar y (D) arrugar sin alterar su funcionamiento. El trabajo se ha publicado en Dae-Hyeong Kim et al. “Stretchable and Foldable Silicon Integrated Circuits,” Science, Vol. 320. no. 5875, pp. 507-511, 25 April 2008.

La electrónica flexible antes de este trabajo utilizaba materiales orgánicos conductores, pero su rendimiento es mucho peor que la electrónica obtenida con materiales inorgánicos. En este trabajo se ha desarrollado por primera vez una manera de combinar nanotiras de silicio con un sutrato flexible de goma o plástico que permite crear circuitos electrónicos robustos, flexibles y “doblables” sin sacrificar el rendimiento de la electrónica convencional. La característica más interesante de estos nuevos circuitos flexibles es que la propia circuitería electrónica prácticamente no sufre los esfuerzos provocados por el doblado o estiramiento, que se concentran en el substrato flexible, por ello el rendimiento electrónico no se ve afectado.

El corcho tiene propiedades muy curiosas. Por ejemplo, cuando se estira o comprime en la dirección axial, cambio muy poco en su dirección radial, es decir, tiene un coeficiente de Poisson próximo a cero. La mayoría de los materiales tienen un coeficiente de Poisson positivo, aunque algunos también tiene un coeficiente negativo, como ciertas espumas de polímeros que se expanden lateralmente cuando son estiradas. El artículo de Lee J. Hall et al. “Sign Change of Poisson’s Ratio for Carbon Nanotube Sheets,” Science, Vol. 320. no. 5874, pp. 504-507, 25 April 2008, describe la creación de un material parecido al papel formado por una mezcla de nanotubos, tanto monocapa como multicapa. Variando la fracción de nanotubos multicapa logran controlar el coeficiente de Poisson del material resultante, pasando de un valor positivo a uno negativo, incluyendo la posibilidad de un valor nulo. El nuevo material de la familia de los “papeles de nanotubos” (buckypaper) tendrá importantes aplicaciones prácticas en el desarrollo de nuevos materiales compuestos (composites) para formar hojas planas, músculos artificiales, y sensores mecánicos y químicos.

La luz viaja a la velocidad de la luz en el vacío (siempre a la misma velocidad lo que da fundamento a la Teoría de la Relatividad Especial). Sin embargo, en un medio “transparente”, la luz viaja a una velocidad menor (en función de su índice de refracción). ¿Puede llegar a detenerse? ¿Puede llegar a “reflejarse” hacia atrás? En un cristal no lineal sí es posible, como nos recuerda Diederik Sybolt Wiersma, “Optics: Light reined in,” Nature 452, 942-944, 24 April 2008 . Este tipo de materiales tiene un gran número de aplicaciones prácticas potenciales en optoelectrónica y tecnologías afines.

T. V. Shubina et al. “Resonant Light Delay in GaN with Ballistic and Diffusive Propagation,” Phys. Rev. Lett. 100, 087402, 2008, han mostrado como “casi” detener la luz en nitruro de galio (GaN). Este semiconductor permite emitir luz azul y se puede dopar fácilmente con impurezas, siendo mecánicamente robusto incluso a altas temperaturas, por lo que se usa habitualmente en los diodos láser azules que podemos encontrar en los discos de almacenamiento Blu-ray de alta densidad (de Sony, que ha ganado la batalla contra el HD-DVD de Toshiba).

La razón de que se pueda “detener” la luz en un cristal es que los pulsos ópticos están formados por una superposición de muchos fotones de longitudes de onda (colores puros) distintos. La velocidad con la que se propaga el pulso en el medio es la velocidad de grupo o velocidad de la envolvente del pulso. Dentro del pulso, cada fotón se propaga a su propia velocidad de fase, que viene determinada por el índice de refracción del material. Sea w(k) la relación de dispersión que determina con qué velocidad se propagan las fotones de diferentes colores (números de onda, k). Sus velocidadesd de fase serán w(k)/k. La velocidad de grupo del pulso o paquete de ondas o de la envolvente es la derivada de la dispersión w'(k)=dw(k)/dk.

En medio con mucha dispersión, donde w(k) cambia mucho con cambios de k, la envolvente del pulso cambia de forma y el pico (máxima amplitud) de la envolvente puede “aparentar” propagarse a una velocidad mayor que la velocidad de la luz en el vacío, o a una velocidad mucho más pequeña, incluso llegar a pararse. Por supuesto, la velocidad de la información (relacionada con la “energía”) propagada por el pulso nunca puede propagarse a mayor velocidad que la luz en el vacío.

En el experimento de Shubina et al., ver la ilustración arriba, la propagación dispersiva del pulso en GaN hace que el frente delantero del pulso se reduzca (ver las flechas) y el frente trasero crezca (ver también las flechas), con lo que el pico o máxima amplitud de la envolvente se puede conseguir que permanezca prácticamente en reposo. Ello gracias a interacciones resonantes entre las moléculas del material y la luz a ciertas frecuencias específicas. ¿Dónde se va la energía que se acumula cuando el pulso se “detiene”? Se consume en la interacción con los electrones del material, que pasan a estados excitados, se crean “excitones” que termporalmente almacenan la energía óptica. La interacción resonante ocurre sólo para las frecuencias de luz que exactamente coinciden con las frecuencias de los excitones.

Las aplicaciones prácticas de esta tecnología, todavía en pañales, son muy prometedoras. Por ejemplo, se podría crear memorias ópticas (de corta vida) como las DRAM de silicio, que requieren refresco. Junto con guías de onda de cristal fotónico (estructuras microestructuradas con agujeros) se podría diseñar circuitería fotónica para computación completamente óptica, sin mediar, dispositivo electrónico alguno, que podría sustituir en ciertas aplicaciones a las tecnologías actuales basadas en Silicio. ¡Adiós Silicon Valley! ¡Bienvenido Gallium Valley!

¿Cómo puede evolucionar el Sistema Solar en el futuro? ¿Cuáles son las posibilidades de que los planetas sufran una inestabilidad orbital antes de que el Sol se vuelva una estrella gigante roja y destruya la Tierra? En tres palabras: alrededor del 1%. Así se indica en el artículo de Konstantin Batygin, Gregory Laughlin, “On the Dynamical Stability of the Solar System,” ArXiv preprint, 11 Apr 2008. El artículo es técnico, pero está magistralmente comentado en (el blog del propio Laughlin) “It won’t last forever…,” que resume los puntos más importantes del trabajo de Batygin sobre la estabilidad a largo plazo del Sistema Solar y sobre todo de su motivación (Konstantin es el alumno y Gregory el profesor).

La respuesta a estas preguntas requiere estudiar numéricamente la evolución de los 8 planetas (no se tienen en cuenta los planetas enanos ni demás cuerpos de menor tamaño) en integraciones de largo tiempo. Hoy en día, cualquier ordenador PC permite realizar simulaciones de los 8 planetas en tiempos más largos que la vida del Sol (antes de que se convierte en gigante roja, dentro de unos 6 mil millones de años) y Batygin lo ha hecho para los próximos 24 mil millones de años (mucho más allá de lo necesario). La siguiente figura muestra la excentricidad de la órbita terrestre durante los próximos 20 mil millones de años, mostrando que su órbita prácticamente no cambia (variaciones entre e=0 y e=0.07). Un resultado claramente aburrido.

Las simulaciones numéricas desarrolladas por Batygin incluyen la adición de un término perturbativo singular, desarrollado previamente por Laskar gracias al análisis de la simulación hacia atrás en el tiempo (técnica de análisis de bifurcaciones para sistemas “caóticos” hamiltonianos), que permite modelar mejor la existencia de resonancias entre el movimiento de los planetas. En concreto una resonancia entre Mercurio y Júpiter, mediada por Venus, conduce a un comportamiento de Mercurio muy errático. Como vemos en esta figura.

Este comportamiento conduce a interesantes sorpresas. En una simulación Mercurio cae en el Sol dentro de 1261 millones de años (Ma). En otra, Mercurio y Venus colisionan dentro de unos 862 Ma, tras la eyección de Marte fuera del Sistema Solar dentro de 822 Ma. (como vemos en la figura de abajo). En todas las simulaciones Júpiter, Saturno, Urano y Neptuno se mantendrán estables.

Más en broma que en serio, semiramis nos recuerda que “Venus no soporta que Mercurio (dios mensajero) le chive sus idilios a Marte (amante de la primera pero también cornudo) y razón por la cual éste último se pira del sistema solar. ¿Y para esa conclusión tanto cálculo numérico?”.

PS (5 ene 2013): Una versión actualizada de esta entrada, que merece la pena leer: Daniel Marín, “¿Puede Marte chocar contra la Tierra?,” Eureka, Ene. 03, 2013.