No, esta no es la mejor manera de aparcar.

Aparcar el coche en el centro de cualquiera de nuestras ciudades es un GRAN problema. La manera clásica de tratar de resolver este problema matemáticamente es el modelo del “aparcamiento aleatorio” (random car parking model) de Renyi. Este modelo ignora un parámetro importante a la hora de elegir aparcamiento, la distancia entre coches (ya aparcados o la que estimamos que dejaremos cuando lo logremos). Este modelo teórico predice que la función densidad de probabilidad p(D) para la distancia entre coches D crece hacia infinito conforme D decrece a cero, lo que obviamente es irrealista. De hecho los datos experimentales en múltiples ciudades mustran que p(D) decrece a cero conforme D lo hace. Petr Šeba, “Parking in the city: an example of limited resource sharing,” ArXiv preprint, 10 Apr 2008, trata de solventar este defecto del modelo de Renyi.

Petr estudia el proceso de aparcar el coche en el centro de una ciudad como si se tratara de un problema de gestión de recursos compartidos o limitados (el espacio disponible de asfalto reservado para aparcar). De esta forma muestra cómo determinar una distribución de probabilidad para predecir la distancia entre coches aparcados que depende de la longitud del segmento de calle reservado para aparcar. El modelo le permite demostrar que existen principios psicofísicos generales que guían las maniobras que realizamos al aparcar nuestro coche. Estos principios han sido determinados y validados analizando el proceso de aparcamiento en una pequeña ciudad checa, Hradec Kralove (el autor es checo).

Técnicamente, Petr interpreta el proceso de aparcar como un partición estadística del espacio limitado como parking entre las personas que compiten entre sí intentando aparcar. La partición es descrita mediante una distribución de Dirichlet con parámetro g. Este parámetro está fijado por la capacidad del conductor de aparcar en espacios muy “justos” logrando un aparcamiento con una distancia entre coches muy pequeña. El modelo matemático le permite obtener la distribución del espaciado entre coches como una solución en estado estacionario del proceso de aparcamiento / desaparcamiento. En promedio, si un coche mide L metros, se necesitan 1.3*L metros para poder aparcar satisfactoriamente. Su modelo conduce a que la probabilidad p(D) sigue una distribución beta, que es una distribución fuertemente asimétrica. En este caso caracterizada por un parámetro g=3. Petr trata de justificar este parámetro aludiendo a la teoría de la percepción binocular de la distancia, siendo esta parte psicofísica del modelo la más susceptible a crítica. Las datos tomados experimentalmente que presenta para confirmar su hipótesis, en mi opinión, son bastante dudosos. Aún así, el artículo es de gratificante lectura y por tanto recomendable.

La figura muestra (A) el proceso de fabricación de circuitos CMOS ultrafinos que utilizan nanotiras (nanoribbons) de silicio de gran flexibilidad ante dobleces y que se pueden estirar/comprimir recuperando su forma original. (B to D) Fotografías de algunos de los circuitos fabricadods. En (B) aparece un recuadro (inferior derecha) que muestra un único inversor CMOS. Estos circuitos se pueden (C) enrollar y (D) arrugar sin alterar su funcionamiento. El trabajo se ha publicado en Dae-Hyeong Kim et al. “Stretchable and Foldable Silicon Integrated Circuits,” Science, Vol. 320. no. 5875, pp. 507-511, 25 April 2008.

La electrónica flexible antes de este trabajo utilizaba materiales orgánicos conductores, pero su rendimiento es mucho peor que la electrónica obtenida con materiales inorgánicos. En este trabajo se ha desarrollado por primera vez una manera de combinar nanotiras de silicio con un sutrato flexible de goma o plástico que permite crear circuitos electrónicos robustos, flexibles y “doblables” sin sacrificar el rendimiento de la electrónica convencional. La característica más interesante de estos nuevos circuitos flexibles es que la propia circuitería electrónica prácticamente no sufre los esfuerzos provocados por el doblado o estiramiento, que se concentran en el substrato flexible, por ello el rendimiento electrónico no se ve afectado.

El corcho tiene propiedades muy curiosas. Por ejemplo, cuando se estira o comprime en la dirección axial, cambio muy poco en su dirección radial, es decir, tiene un coeficiente de Poisson próximo a cero. La mayoría de los materiales tienen un coeficiente de Poisson positivo, aunque algunos también tiene un coeficiente negativo, como ciertas espumas de polímeros que se expanden lateralmente cuando son estiradas. El artículo de Lee J. Hall et al. “Sign Change of Poisson’s Ratio for Carbon Nanotube Sheets,” Science, Vol. 320. no. 5874, pp. 504-507, 25 April 2008, describe la creación de un material parecido al papel formado por una mezcla de nanotubos, tanto monocapa como multicapa. Variando la fracción de nanotubos multicapa logran controlar el coeficiente de Poisson del material resultante, pasando de un valor positivo a uno negativo, incluyendo la posibilidad de un valor nulo. El nuevo material de la familia de los “papeles de nanotubos” (buckypaper) tendrá importantes aplicaciones prácticas en el desarrollo de nuevos materiales compuestos (composites) para formar hojas planas, músculos artificiales, y sensores mecánicos y químicos.

La luz viaja a la velocidad de la luz en el vacío (siempre a la misma velocidad lo que da fundamento a la Teoría de la Relatividad Especial). Sin embargo, en un medio “transparente”, la luz viaja a una velocidad menor (en función de su índice de refracción). ¿Puede llegar a detenerse? ¿Puede llegar a “reflejarse” hacia atrás? En un cristal no lineal sí es posible, como nos recuerda Diederik Sybolt Wiersma, “Optics: Light reined in,” Nature 452, 942-944, 24 April 2008 . Este tipo de materiales tiene un gran número de aplicaciones prácticas potenciales en optoelectrónica y tecnologías afines.

T. V. Shubina et al. “Resonant Light Delay in GaN with Ballistic and Diffusive Propagation,” Phys. Rev. Lett. 100, 087402, 2008, han mostrado como “casi” detener la luz en nitruro de galio (GaN). Este semiconductor permite emitir luz azul y se puede dopar fácilmente con impurezas, siendo mecánicamente robusto incluso a altas temperaturas, por lo que se usa habitualmente en los diodos láser azules que podemos encontrar en los discos de almacenamiento Blu-ray de alta densidad (de Sony, que ha ganado la batalla contra el HD-DVD de Toshiba).

La razón de que se pueda “detener” la luz en un cristal es que los pulsos ópticos están formados por una superposición de muchos fotones de longitudes de onda (colores puros) distintos. La velocidad con la que se propaga el pulso en el medio es la velocidad de grupo o velocidad de la envolvente del pulso. Dentro del pulso, cada fotón se propaga a su propia velocidad de fase, que viene determinada por el índice de refracción del material. Sea w(k) la relación de dispersión que determina con qué velocidad se propagan las fotones de diferentes colores (números de onda, k). Sus velocidadesd de fase serán w(k)/k. La velocidad de grupo del pulso o paquete de ondas o de la envolvente es la derivada de la dispersión w'(k)=dw(k)/dk.

En medio con mucha dispersión, donde w(k) cambia mucho con cambios de k, la envolvente del pulso cambia de forma y el pico (máxima amplitud) de la envolvente puede “aparentar” propagarse a una velocidad mayor que la velocidad de la luz en el vacío, o a una velocidad mucho más pequeña, incluso llegar a pararse. Por supuesto, la velocidad de la información (relacionada con la “energía”) propagada por el pulso nunca puede propagarse a mayor velocidad que la luz en el vacío.

En el experimento de Shubina et al., ver la ilustración arriba, la propagación dispersiva del pulso en GaN hace que el frente delantero del pulso se reduzca (ver las flechas) y el frente trasero crezca (ver también las flechas), con lo que el pico o máxima amplitud de la envolvente se puede conseguir que permanezca prácticamente en reposo. Ello gracias a interacciones resonantes entre las moléculas del material y la luz a ciertas frecuencias específicas. ¿Dónde se va la energía que se acumula cuando el pulso se “detiene”? Se consume en la interacción con los electrones del material, que pasan a estados excitados, se crean “excitones” que termporalmente almacenan la energía óptica. La interacción resonante ocurre sólo para las frecuencias de luz que exactamente coinciden con las frecuencias de los excitones.

Las aplicaciones prácticas de esta tecnología, todavía en pañales, son muy prometedoras. Por ejemplo, se podría crear memorias ópticas (de corta vida) como las DRAM de silicio, que requieren refresco. Junto con guías de onda de cristal fotónico (estructuras microestructuradas con agujeros) se podría diseñar circuitería fotónica para computación completamente óptica, sin mediar, dispositivo electrónico alguno, que podría sustituir en ciertas aplicaciones a las tecnologías actuales basadas en Silicio. ¡Adiós Silicon Valley! ¡Bienvenido Gallium Valley!

¿Cómo puede evolucionar el Sistema Solar en el futuro? ¿Cuáles son las posibilidades de que los planetas sufran una inestabilidad orbital antes de que el Sol se vuelva una estrella gigante roja y destruya la Tierra? En tres palabras: alrededor del 1%. Así se indica en el artículo de Konstantin Batygin, Gregory Laughlin, “On the Dynamical Stability of the Solar System,” ArXiv preprint, 11 Apr 2008. El artículo es técnico, pero está magistralmente comentado en (el blog del propio Laughlin) “It won’t last forever…,” que resume los puntos más importantes del trabajo de Batygin sobre la estabilidad a largo plazo del Sistema Solar y sobre todo de su motivación (Konstantin es el alumno y Gregory el profesor).

La respuesta a estas preguntas requiere estudiar numéricamente la evolución de los 8 planetas (no se tienen en cuenta los planetas enanos ni demás cuerpos de menor tamaño) en integraciones de largo tiempo. Hoy en día, cualquier ordenador PC permite realizar simulaciones de los 8 planetas en tiempos más largos que la vida del Sol (antes de que se convierte en gigante roja, dentro de unos 6 mil millones de años) y Batygin lo ha hecho para los próximos 24 mil millones de años (mucho más allá de lo necesario). La siguiente figura muestra la excentricidad de la órbita terrestre durante los próximos 20 mil millones de años, mostrando que su órbita prácticamente no cambia (variaciones entre e=0 y e=0.07). Un resultado claramente aburrido.

Las simulaciones numéricas desarrolladas por Batygin incluyen la adición de un término perturbativo singular, desarrollado previamente por Laskar gracias al análisis de la simulación hacia atrás en el tiempo (técnica de análisis de bifurcaciones para sistemas “caóticos” hamiltonianos), que permite modelar mejor la existencia de resonancias entre el movimiento de los planetas. En concreto una resonancia entre Mercurio y Júpiter, mediada por Venus, conduce a un comportamiento de Mercurio muy errático. Como vemos en esta figura.

Este comportamiento conduce a interesantes sorpresas. En una simulación Mercurio cae en el Sol dentro de 1261 millones de años (Ma). En otra, Mercurio y Venus colisionan dentro de unos 862 Ma, tras la eyección de Marte fuera del Sistema Solar dentro de 822 Ma. (como vemos en la figura de abajo). En todas las simulaciones Júpiter, Saturno, Urano y Neptuno se mantendrán estables.

Más en broma que en serio, semiramis nos recuerda que “Venus no soporta que Mercurio (dios mensajero) le chive sus idilios a Marte (amante de la primera pero también cornudo) y razón por la cual éste último se pira del sistema solar. ¿Y para esa conclusión tanto cálculo numérico?”.

PS (5 ene 2013): Una versión actualizada de esta entrada, que merece la pena leer: Daniel Marín, “¿Puede Marte chocar contra la Tierra?,” Eureka, Ene. 03, 2013.

Sección transversal del Universo, con la Tierra en el centro de un gran vacío (azul). El vacío causaría una distorsión visible en el fondo cósmico de microondas. (c) Physical Review Letters, 2008.

En una entrada anterior ya comentamos que la “segunda” inflación, la expansión acelerada actual del universo, podría ser un artefacto de las medidas de distancias basadas en supernovas tipo Ia (ver entrada). Podría existir un “agujero” vacío a nuestro alrededor que falsearía las medidas. De existir ese agujero el principio cosmológico de la isotropía y homogeneidad del universo a escala cosmológica no sería válido a nuestro alrededor. Para verificar o refutar esta hipótesis la única vía posible es la experimental. En esta línea se acaba de publicar R. R. Caldwell and A. Stebbins, “A Test of the Copernican Principle,” Phys. Rev. Lett. 100, 191302 ( 2008 ), ArXiv preprint.

¿Ocupa la Tierra, o mejor, la Vía Láctea un lugar privilegiado en el Universo? ¿Podrían estar en el centro de un gran vacío de tamaño cosmológico, del orden de 1 gigapársec? [Recuerda la Vía Láctea tiene un diámetro menor de 10 kilopársec]. En su caso, la radiación de fondo de microondas (CMB) se vería alterada de tal forma que creeríamos que nos encontramos en un universo cuya expansión está acelerándose. Pero también dejaría otras marcas ques nos permitirían comprobar si realmente dicho vacío existe. El artículo de Caldwell-Stebbins, basado en los resultados del CMB de la sonda WMAP, excluyen la presencia de tal vacío (con radios hasta 5 gigaparsec), confirmando las ideas sobre el universo en expansión acelerada con un fuerte contenido en energía oscura.

La energía oscura ha vuelto a vencer. De todas formas, habrá que esperar a la sonda Planck para confirmar o refutar definitivamente la presencia de vacíos cósmicos como explicación del fenómeno de la energía oscura.

Proyección estándar en una esfera del CMB (www.futura-science.com).

El fondo cósmico de microondas (CMB) presenta ciertas fluctuaciones cuya explicación más sencilla es la existencia de un periodo inflacionario a los 0’00000 000000 000000 000000 000000 000000 001 segundos después del Big-Bang. Las fluctuaciones cuánticas del campo cuántico responsable de la inflación, llamado inflatón, fueron amplificadas enormemente (exponencialmente) por la aceleración de la expansión, originaron diferencias de densidad de materia en el plasma primordial. Si la anisotropía del CMB tiene su origen en fluctuaciones cuánticas lo que observamos en el CMB es un retrato de una función de onda cuántica a escala macroscópica, la teoría que lo explica se denomina teoría del vacío (del inflatón) de Bunch-Davies (sí, Paul Davies, el gran divulgador científico). Si tanto la mecánica cuántica (estándar) como la teoría (estándar) son válidas, entonces la anisotropía del CMB tiene que tener una distribución estadística gaussiana. ¿Pero realmente la tiene? Hasta hace unos meses se pensaba que sí…

Amit P. S. Yadav and Benjamin D. Wandelt, “Evidence of Primordial Non-Gaussianity (fNL) in the Wilkinson Microwave Anisotropy Probe 3-Year Data at 2.8,” Physical Review Letters, 100, art. 181301 (2008 ), acaban de publicar un artículo, aparecido el 9 de mayo de 2008 , en el que estudian los datos del WMAP de los últimos años y muestran que hay evidencia de que el CMB no tiene una distribución estadística gaussiana. Para ello han estudiado le término de correlación de 3 puntos para la función de perturbaciones en la curvatura del espacio-tiempo de Bardeen. Este término ƒNL tiene que ser exactamente 0 si el CMB es gaussiano. Sin embargo, han encontrado que, para ciertos canales de frecuencia, es no nulo ( 27< ƒNL < 147) con un intervalo de confianza del 95% (2.8 desviaciones típicas). ¿Qué significa este resultado? Hay múltiples respuestas posibles. Si la mecánica cuántica (estándar) es aplicable al universo primordial, entonces el modelo inflacionario (estándar) es incorrecto. Puede ocurrir que existan múltiples campos de inflatón, que sea válida el modelo ekpirótico del Big-Bang según la teoría de cuerdas, etc.

Pero existe otra posibilidad: contradecir a la sacrosanta Mecánica Cuántica (estándar). De ello se ha hecho eco, la noticia de Zeeya Merali, “Written in the skies: why quantum mechanics might be wrong,” Nature News, published online 15 May 2008 , que alude al reciente trabajo de Antony Valentini, “Inflationary Cosmology as a Probe of Primordial Quantum Mechanics,” ArXiv preprint, 1 Mahy 2008 , quien parece ser capaz de explicar la distribución no-gaussiana del fondo cósmico de microondas observada por Yadav-Wandelt, utilizando la teoría de la onda-piloto de de Broglie-Bohm, también llamada mecánica cuántica realista de Bohm. Esta teoría se publicó en 1952 por David Bohm y es la teoría de variables ocultas no locales más conocida, partiendo de ideas de Louis de Broglie. Para cada partícula existe una “onda guía” (la función de onda adquiere por tanto realidad física) que gobierna su movimiento. No es posible en laboratorio distinguir experimentalmente entre la mecánica cuántica (estándar) y la teoría de Bohm. Sin embargo, como la primera fue descubierta antes y la segunda “hereda” de la primera, muy pocos investigadores abogan por la mecánica de Bohm. Pero, ¿se puede demostrar que Bohm estaba equivocado? Valentini cree que sí, gracias al fondo cósmico de microondas y al futuro satélite Planck.

La cuestión si la Mecánica Cuántica es correcta podría pronto tener una respuesta negativa gracias a la observación del cielo. Antony Valentini, físico del Imperial College, Londres, quería desarrollar un test que pudiera separar la Mecánica Cuántica actual, de uno de sus más próximos rivales, la teoría de la Mecánica de Bohm. Aunque es una de las teorías de mayor éxito de toda la física, la Mecánica Cuántica contiene gran número de “paradojas”, especialmente en su interpretación con nuestros “ojos clásicos”, que la hacen “incómoda” (en palabras de Valentini). Por ejemplo, las propiedades de una partícula no tienen valores bien definidos (“no existen”) hasta que son medidos; antes de la medida, sólo podemos conocer las probabilidades de cada uno de dichos valores. Para muchos científicos, como Einstein, esto es “incómodo”, por lo que él creía que las partículas contenías ciertas propiedades “ocultas” (variables ocultas) que determinan su comportomiento completamente. La Mecánica de Bohm es una de las teorías de variables ocultas más desarrolladas en la actualidad y actualmente no se conocen experimentos que puedan demostrar que es errónea (en un laboratorio predice exactamente lo mismo que la Mecánica Cuántica).

Valentini cree que se podrían comparar ambas teorías con un análisis adecuado del fondo de microondas cósmico, ya que éste muestra puntos fríos y calientes que, se cree, fueron generados por la primera gran inflación que amplificó las fluctuaciones cuánticas del Universo primitivo. Valentini cree que cualquier “pequeña” violación de la mecánica cuántica en el periodo pre-inflacionario será amplificada por la inflación y dejará una huella en la estadística de fluctuaciones del fondo cósmico de microondas.

Hasta el momento, todas las medidas del fondo cósmico de microondas parecen encajar perfectamente en las predicciones de la Mecánica Cuántica, salvo un “pequeño detalle” que ha sido detectado por Amit Yadav y Ben Wandelt, University of Illinois at Urbana-Champaign, EEUU. Lo sorprendente es que las simulaciones desarrolladas por Valentini del efecto en el fondo cósmico de microondas de la inflación supuesta que se cumple la Mecánica de Bohm en el periodo pre-inflacionario, parece que explican perfectamente dicho “pequeño detalle”. Por supuesto, se requiere una confirmación mediante análisis independientes. Pero el resultado cuando menos “llama la atención”.

Como afirma Valentini, “todavía es pronto para afirmar que la Mecánica Cuántica es incorrecta, pero es una posibilidad que no podemos descartar”. También es pronto para afirmar que la Mecánica de Bohm es incorrecta, pero quizás el Planck tenga la respuesta.

Más sobre la mecánica de Bohm y las teorías de variables ocultas en “Lo decible e indecible en mecánica cuántica” John Bell. Este libro debe ser lectura obligatoria para todo físico. Una reseña. El libro nos enseña que la Mecánica Cuántica (estándar) o es una Teoría Realista y No Local, o es una Teoría Local pero No Realista. La interpretación de Copenhague avoga por lo segundo. La teoría de Bohm por lo primero.

Una “fuzzball” es una bola de “hilos” para recoger pelusas. Pero también es una propuesta para entender la información cuántica en los agujeros negros. El artículo de Kostas Skenderis and Marika Taylor, “The fuzzball proposal for black holes,” ArXiv preprint, 3 Apr 2008 , es muy interesante.

Bekenstein primero, y más tarde Hawking, asociaron a todo agujero negro el concepto de entropía (concepto termodinámico asociado a contar el número de estados “cuánticos” posibles de un sistema clásico macroscópico). En agujeros negros, la entropía es proporcional al área delimitada por el horizonte de sucesos (y no al volumen contenido en su interior como requeriría el principio de correspondencia si tuvieran origen cuántico). ¿Qué pueden ser los estados “cuánticos” posibles de un agujero negro? Según Penrose y Hawking los agujeros negros “no tienen pelo”: un agujero negro está caracterizado por su masa, momento cinético (rotación) y posibles cargas “topológicas” (normalmente son neutros) como su carga eléctrica (electrodinámica), carga de color (cromodinámica), etc. El agujero negro no tiene estructura interna desde un punto de vista clásico pero tampoco podemos recurrir a la gravedad cuántica, todavía no conocemos la teoría correcta (en teoría de cuerdas hay varias explicaciones posibles a la entropía del agujero negro, pero no hablaremos de ellas aqúi).

La idea de las fuzzybolas (fuzzballs) es simple. Para un un agujero negro de entropía S, se asume que existen exp(S) soluciones no singulares sin horizonte de sucesos asintóticamente similares a un agujero negro (lejos del horizonte), pero que difieren de éste en las cercanías del horizonte. El agujero negro con su horizonte de sucesos es el resultado de promediar todas estas soluciones sin horizonte. En este sentido clásico, dichas soluciones corresponden a los microestados del agujero negro.

Pero hablando de física y fútbol, este año que ha ganado la liga el Real Madrid, he de indicar de que hay gran número de fuentes en la web sobre este interesante tema, por ejemplo, sobre los efectos del balón cuando es impulsado con una cierta rotación permitiendo la actuación de la fuerza de Magnus y que el balón desvié su trayectoria dejando boquiabierto al público y los contrarios colocados en la barrera. Lo más importante es recordar que en inglés nos referimos la soccer (physics). Con un balón casi en la cara. A mí me gusta el libro “The Science of Soccer” (yo tengo una copia “alegal”) pero para los más puristas: algunos documentos gratuitos.

Esta tira de humor sobre CSI me ha recordado el artículo de Mathieu Bouville, “Crime and punishment in scientific research,” ArXiv preprint, 30 Mar 2008 . La ciencia necesita CSI que busquen las malas conductas científicas ya que las políticas actuales contra el fraude científico están muy limitadas: es posible que no se pueda probar que una conducta considerada como fraude realmente lo es, y es posible que cosas que normalmente no se consideran fraudulentas puedan ser consideradas erróneamente como tales. Los CSI de la ciencia, según Bouville, deben ser “científicos” no pueden ser impuestos desde la propia sociedad, deben ser impuestos desde la propia ciencia. La falsificación malintencionada de datos, el plagio, y otros fraudes deben ser tratados con mucho cuidado, anteponiendo la inocencia del científico como precepto básico.

Y todo esto viene a colación por el reciente Editorial en Nature 453, 258, 15 May 2008, “Negative results. Retracted papers require a thorough explanation of what went wrong in the experiments,” en relación a los dos artículos del bioquímico Homme Hellinga y sus estudiantes, del Duke University Medical Center in Durham, North Carolina, EEUU, que habían realizado un importante avance en el diseño de enzimas. El año pasado, otro químico encnotró que los enzimas de Hellinga no funcionaban, lo que provocó que él se retractara de los dos artículos en Febrero de este año en Nature. Sin embargo, en Marzo, un tercer grupo de investigadores ha publicado un artículo mostrando que en realidad el diseño de los enzimas de Hellinga en realidad sí funciona. ¡Qué cacao!

Este episodio revela muchos efectos laterales de las prácticas anti-fraude científico. Por ejemplo, John Richard de la State University of New York, Buffalo, EEUU, deseaba usar las proteínas de Hellinga para su propio trabajo. Necesitaron 7 meses y varios miles de dólares tratando de reproducir sus resultados sin lograrlo. De ahí que publicaron el artículo que llevó a la retracción. Pero a costa de mucho trabajo de investigación y mucho dinero. ¿Realmente se beneficiará la carrera de Richards por este trabajo? Probablemente, no. ¡Tiempo perdido en pos del avance de la ciencia!

Más aún, Hellinga tiene un prestigio “intocable”, pero sus estudiantes son las “cabezas de turco”. Mary Dwyer fue acusada por el propio Hellinga de falsificar los datos en los dos artículos retractados, aunque aparentemente no había evidencia de que lo hubiera hecho con mala intención, como ha revelado un estudio del caso por la propia universidad de Duke. Sin embargo, la acusación de su “jefe” podría causar mucho más daño en su carrera que el haber firmado dos artículos que han sido retractados. ¿Quién la contratará ahora para confiarle trabajos de investigación postdoctoral? Esta situación muestra la gran vulnerabilidad de los estudiantes en el sistema científico actual. De hecho, ahora sabemos que la decisión de Hellinga de “lavarse las manos” y acusar a Dwyer es muy cuestionable. Como director de tesis de Dwyer, Hellinga era el responsable de su formación como investigadora. Si ella cometió errores, el último responsable de los mismos era el “jefe” Hellinga. Por el contrario, acusándola a ella, él ha dilapidado cualquier posibilidad de discusión abierta y franca sobre el caso. ¡Se ha cargado su carrera!

¿Cuál es la situación actual para la Ciencia? La comunidad científica no sabe qué fue mal en el trabajo original, y puede que nunca lo sepa, ya que ni el trabajo de Richard, ni la acusación de fraude, ni las dos retracciones aportan información al respecto. ¿Realmente la comunidad científica puede seguir confiando en los resultados de Hellinga? Tanto él como su universidad deberían dar publicamente una respuesta clara a qué es lo que ha pasado, garantizando que no está ocurriendo en su laboratorio actualmente.

Este caso nos muestra las grandes debilidades del sistema científico, dejando claro que los CSI de la ciencia no son sólo una curiosida de serie televisiva, son una necesidad que los estados y las grandes instituciones científicas tienen que plantearse como urgencia. Si no, como siempre, los precarios serán los que pagarán el pato.

http://es.youtube.com/watch?v=yjX5dU1EkTk

Si un láser inyecta un pulso óptico excesivamente intenso en una fibra óptica convencional, se produce un fenómeno de ruptura en cadena de la fibra (fundición del núcleo, parte central, de la fibra, cual si fuera el cable de un fusible). Lo sorprendente es que empieza a fundirse por el extremo opuesto al láser. A una velocidad de fundición del orden de 1 m/s, se pueden fundir varios kilómetros en pocos minutos. En youtube buscas “fiber fuse” y tienes varios videos muy espectaculares del fenómeno. Arriba tienes un botón de muestra. Más videos los tiene en la página web (en inglés) de TODOROKI Shin-ichi. Te recomiendo su artículo “Two serendipitous episodes — How I embarked on fiber fuse research”, es muy curioso de leer.

Como afirma MiGui: No es sorprendente, verás, la fibra óptica es un medio dieléctrico por lo que conduce mal el calor. En cambio se intenta que tenga pocas pérdidas para que sea eficiente la transmisión, así que poca parte de la energía electromagnética del pulso emitido se pierde a lo largo de su recorrido. Pero claro, al llegar al final hay una discontinuidad brutal entre dos medios dieléctricos: el aire y la propia fibra. Así que ahí se produce una onda reflejada y una transmitida, pero como se trata de un cambio tan abrupto, la energía se acumula y se empieza a deshacer por ese extremo. Si empezase a fundirse al principio, no tendríamos fotónica ni comunicaciones ópticas ni nada por el estilo.

Este interesante fenómeno fue descubierto en 1987 por R. KASHYAP, “Self-propelled self-focusing damage in optical fibres,” Proc. Int. Conf. Lasers, 7-1, 1 December 1987, y publicado en una revista en 1988, R. KASHYAP, and K.J. BLOW, “Observation of catastrophic self-propelled self-focusing in optical fibres,” Electron. Lett., 1988, 24(1) 47-49. Artículos más recientes sobre el tema los tenéis aquí.

Reconócelo, Federico, ¡estás perdido!

¿Te gusta “patear” el monte? La página web FAQ-Navigation te será de cierta utilidad, aunque está escrita en inglés, es fácil de leer. A mí me gusta la parte de la regla de Naismisth (el inventor del baloncesto), regla que permite predecir el tiempo que tardaremos en cubrir nuestro recorrido. Presenta un resumen del artículo “Accessibility as an important wilderness indicator: Modelling Naismith’s Rule” , de Steffen Fritz and Steve Carver, quienes acompañan a la regla de Naismith de un algoritmo de búsqueda de caminos más cortos con objeto de predecir el tiempo que tardaremos en nuestro recorrido campestre. La regla básica de Naismith asume que andando podemos alcanzar una velocidad de 5 km/h en llano, pero queda por cada 600m de ascenso hay que añadir una hora al tiempo de recorrido. O lo que es lo mismo, la duración del recorrido se estima en 12 * km recorridos + 0.1 * metros ascendidos. Como Naismisth era un “máquina”, normalmente se recomienda tomar el doble del tiempo que esta regla indica (lo que nos dará el tiempo máximo del recorrido).

Existen versiones mejoradas de la regla de Naismith, por ejemplo, 5 km/h más 1 hora por cada 600 metros de ascenso, menos 10 minutos por cada 300 metros de descenso por pendientes entre 5 y 12 grados, más 10 minutos por cada 300 metros de descenso por pendientes mayores de 12 grados. Hay versiones aún más refinadas que tienen en cuenta el tipo de terreno, la meteorología, etc. Lo dicho, ánimo y a caminar