Hay muchos portales con cuestiones de física (más o menos elemental) que nos pueden hacer disfrutar. Aquí tenéis una muestra.

Maryland’s Physics Question of the Week. Insuperable. Como las del chorrito al hacer pis o esta otra similar. Yo lo conocí hace años y presenta cosas tan anti-intuitivas como el problema de los dos globitos. Muy recomendable para pasar un rato agradable “pensando”. Las cuestiones de las últimas semanas están centradas en el análisis de señales mediante transformada de Fourier, como commparando instrumentos musicales, aunque todas siempre interesantes.

Si eres profesor de física, ¿por qué no le preguntas la última a tus alumnos?

Por cierto, conocéis el “famosísimo” libro Clifford Swartz, “Back-of-the-Envelope Physics,” The Johns Hopkins University Press, 2003 [vista previa en Google Books]. Cálculos sencillos de física (algunos que requieren gran dominio y maestría) que se pueden realizar en el espacio de una postal. Por ejemplo, ¿cuántos lápices son necesarios para dibujar una línea con la longitud del ecuador de la Tierra? ¿Cuánto tiene que vivir una persona para que haya respirado con sus propios pulmones todas las moléculas de aire de la atmósfera terrestre? ¿Cuántas hormigas caben en un estadio de fútbol como el Barnabeu?

Los que no tenéis acceso al libro quizás disfrutaréis con “Global Warming: some back-of-the-envelope calculations,” C. Fabara, B. Hoeneisen, ArXiv preprint, 14 Mar 2005 .

http://es.youtube.com/watch?v=msr6jCqoZYU

Timothy Wei nos cuenta cómo funciona la DPIV (para nadadores humanos).

¿Cómo visualizar en tiempo real el flujo de fluido alrededor de un cuerpo en movimiento? Pongamos por ejemplo, alrededor de Michael Phelps o de un delfín. La técnica más avanzada es la DPIV (Digital Particle Image Velocimetry) que consiste en “sembrar” el fluido con pequeñas partículas cuyo movimiento, con el fluido es grabado mediante una cámara digital CCD (charge-coupled device camera). En la técnica DPIV se pueden medir las velocidades en 3D si se utilizan dos cámaras (visión estereoscópica). El artículo “Velocímetro de partículas basado en imágenes digitales,” de J.D. Martínez-Ramírez y F.J. González, explica en español la técnica.

Yae Eun Moon, Erica Sherman, Frank Fish, Terrie Williams, Timothy Wei, “DPIV measurements of dolphins performing tailstands,” November 24, 2008 , presentan la aplicación de la técnica DPIV para analizar el flujo alrededor de un nadador (humano o delfín). En concreto han estudiado el flujo alrededor de un delfín que se pone vertical sólo sujetado por su cola. El delfín logra levantarse y “caminar” por encima del agua gracias a oscilaciones rápidas y fuertes de su cola. El método permite al grupo del Dr. Wei estimar las fuerzas que es capaz de generar el delfín. Los datos demuestran claramente que los delfines pueden producir un empuje vertical del orden de su propio peso, mucho más de lo necesario para elevarse por encima del agua. La musculatura del delfín es más poderosa de lo que se pensaba.

En la Universidad del Dr. Wei se han hecho eco de este artículo en su página de noticias ““Gray’s Paradox” Solved: Researchers Discover Secret of Speedy Dolphins,” centrándose en la “resolución” de la llamada paradoja de Sir James Gray, biológo británico que 72 años creyó que era imposible que los delfines nadaran tan rápido como lo hacen ya que sus músculos se suponía que eran incapaces de generar tanta potencia mecánica. Las noticia viene acompañada de un vídeo ilustrativo en el que se observa el campo de fluido alrededor de un delfín llamado Primo (el vídeo merece la pena). Resolver una “paradoja” suena muy bien y muchos medios se han hecho eco de la noticia, como The Daily Galaxy, “The Dolphin Paradox: New technology helps disprove 72-year-old scientific mystery.” En español la noticia me ha llegado gracias a Menéame, donde mezvan nos resume dicha noticia en “Científicos resuelven la famosa “Paradoja de los Delfines”.” Los delfines tienen algo que atrae a la gente. ¿Qué será?

http://es.youtube.com/watch?v=Nsk4u0IMmTE

dibujo200807825lloydResolver el problema Ax=b, un sistema lineal de ecuaciones, donde A es una matriz cuadrada y b y x son vectores columna, requiere un coste computacional cuadrático en la dimensión de la matriz, al menos hay que mirar alguna vez todos los elementos de la matriz A. Salvo que la matriz tenga muchos ceros y sepamos donde están (matriz dispersa o sparse). Como mínimo, para que la solución exista, ya que el determinante tiene que ser distinto de cero, tiene que tener O(n) elementos no nulos, con lo que el coste de resolver el sistema lineal será como mínimo de O(n). Por supuesto, en un ordenador clásico. ¿Pero qué pasa en un ordenador cuántico?

Un ordenador cuántico puede ver muchas “cosas” al mismo tiempo (tiene una “visión holística”). Por ello, un algoritmo cuántico puede ordenar un vector de O(n) números en un tiempo O(log n), es decir, “sin verlos todos,” el famoso algoritmo de Grover. El artículo “Quantum algorithm for solving linear systems of equations,” Aram W. Harrow, Avinatan Hassidim, Seth Lloyd, ArXiv preprint, November 20, 2008 , presenta un algoritmo para resolver el sistema lineal Ax=b con un tiempo O(log n). Esto supone una reducción exponencial en el coste respecto al mejor algoritmo clásico existente.

No entraré en los detalles técnicos (no es este el foro adecuado). El artículo, como la mayoría de los del genial Seth Lloyd, del M.I.T., se lee muy fácil pues está muy bien escrito. Es un artículo pensado para que lo puedan entender tanto físicos como informáticos (ambos interesados en los ordenadores cuánticos, se entiende). El algoritmo se basa en un método de Montecarlo que se puede implementar en un ordenador clásico pero para ser eficiente (en un ordenador clásico alcanzar O(n) pasos) requiere un oráculo que le indique dónde tiene que muestrear. El algoritmo cuántico no requiere dicho oráculo y, más aún, converge más rápido que el clásico.

Ha nacido el álgebra numérica cuántica. ¡Increíble! ¡Qué parto! En los próximos meses aparecerán gran número de artículos con versiones cuánticas de la mayoría de los algoritmos del álgebra numérica. En los próximos años asistiremos “al parto” del Matlab cuántico. ¡Increíble! ¡Quién la iba a decir cuando en 1993 Peter Shor, ahora en el M.I.T., logró factorizar números en tiempo polinomial!

Por supuesto, hasta que no haya ordenadores cuánticos construidos físicamente, todo esto no es más que Matemáticas. ¿Quién dijo que la Informática no era más que Matemática Aplicada?

Más información: M.I.T. líder de la computación cuántica.

Fuente de la foto del ordenador cuántico con gato de Schrödinger incluido.

dibujo200807825hessLa física experimental de partículas elementales no sólo se hace en Europa, EEUU, y Japón. Latinoamerica o África también están al pie del cañón. H.E.S.S. (High Energy Stereoscopic System) está formado por 4 telescopios de Cherenkov atmosféricos y está situado en Namibia. Se acaban de publicar los datos del H.E.S.S. sobre electrones de alta energía en los rayos cósmicos. Estos datos, por primera vez a ras de tierra, confirman los resultados de ATIC y otras instalaciones aéreas (globos sonda, satélites). F. Aharonian et al., “The energy spectrum of cosmic-ray electrons at TeV energies,” ArXiv preprint, 24 Nov 2008 . Se ha observado un exceso de electrones altamente energéticos (>600 GeV) en los rayos cósmicos. Más aún, la novedad es que los datos de H.E.S.S. implican que la fuente de los mismos tiene que ser “local” (< 1 kiloparsec de distancia). Recuerda que un parsec son unos 3.26 años luz de distancia o unos 31 billones de kilómetros). El centro de nuestra galaxia, la Vía Láctea, se encuentra a unos 8.5 kiloparsec. Por tanto, los datos de H.E.S.S. apuntan a una fuente de electrones altamente energéticos en nuestra propia galaxia.

El tema más candente de este año en astrofísica es, sin lugar a dudas, la materia oscura. Ya hemos hablado de ella y seguiremos hablando. Da mucho que hablar. Los datos de H.E.S.S. apuntan a que el exceso de electrones tiene como origen la materia oscura de nuestra galaxia. Por supuesto, los autores del artículo se lavan las manos, literalmente: “the detailed interpretation of this result is beyond the scope of this paper.”

No preguntéis el porqué. No tengo ni idea. Pero me cae bien Didier Sornette y me gustan sus artículos sobre burbujas financieras y modelos matemáticos de la crisis económica que estamos sufriendo. Es físico. No es economista ni especialista en finanzas. Su último artículo “Trust! Why it Has Been Lost and How to Regain It,” ArXiv preprint, 25 oct 2008 , nos habla de lo que todo el mundo habla: la crisis que sufrimos es una crisis de confianza. Didier es un optimista como pocos. Pero, además, él con sus modelos busca soluciones. Lo dicho, a mí me cae bien. ¿Debemos confiar en los modelos matemáticos de Sornette?

“La confianza es la base misma de la sociedad y de la economía (…) Confiamos en el futuro, confiamos en el crecimiento económico sostenido, confiamos en que los deudores para hacer frente a sus deudas, confiamos en las instituciones financieras, confiamos en que el dinero que tenemos en nuestra cuenta bancaria lo podremos sacar en cualquier momento, (…) Las instituciones y los gobiernos tienen que recuperar la confianza del ciudadano. Muchos ciudadanos ven sus acciones ante la crisis como: “las ganancias son de algunos (privadas), mientras que las pérdidas son de todos (públicas).” (…) La justicia debe prevalecer, los que han cometido errores desde instituciones financieras privadas deben pagarlos. Asumieron riesgos extremos, violando la confianza de sus accionistas, ahora deben asumir las pérdidas. (…) Para resolver esta crisis, las instituciones y los gobiernos deberían empezar recuperando la confianza del ciudadano.”

“Para que sea sostenible a largo plazo, el crecimiento de la riqueza tiene que ser igual al de la productividad real, que es de aproximadamente del 2% al 3% en valor real (a largo plazo) en los países desarrollados.” No podemos pedirle a los gobiernos y a las instituciones que nos den “duros a pesetas.” Un Didier más técnico. “Las tres burbujas que hemos sufrido en la última década apoyan la hipótesis de Minsky, según la cual la euforia especulativa produce inestabilidades endógenas en los mercados financieros. No son los factores exógenos, inherentemente impredecibles, lo que provocan las crisis como la actual, sino factores endógenos “predecibles” a partir de modelos basados en la historia pasada.” El hombre “económico” (homo oeconomicus) debería evitar tropezar dos veces con la misma piedra.

“Las burbujas especulativas no son malas para la economía. (…) A largo plazo pueden ser hasta beneficiosas, pues su solución pasa por la creación de normativas y reglamentos que los gobiernos son incapaces de imponer en tiempos de calma. (…) Sólo las crisis permiten reformar el Sistema para garantizar su justicia y su estabilidad estructural a largo plazo (…) Por supuesto, el papel de los legisladores en época de crisis no es fácil. (…) Los reglamentos deben asegurar un comportamiento ético e íntegro por parte de los agentes económicos. (…) Falta educación entre los altos directivos de los gobiernos, de los órganos de regulación y de las instituciones financieras en gestión de riesgos.” Por cierto, el tema en el que Didier es especialista. ¡Se le ve el plumero!

“Es un mito que la “nueva economía” puede eliminar el riesgo de los sistemas financieros. El riesgo es algo normal, natural, siempre presente en cualquier sistema social que sea creativo, innovador, dinámico, como “queremos” que sea la economía de mercado.” Ser consciente del riesgo no significa vivir una vida arriesgada. El riesgo por el riesgo es punible y debe ser perseguido (cuando puede tener consecuencias negativas para la sociedad en su conjunto). “Los excesos debidos a la incompetencia o al fracaso gubernamental deben ser perseguidos si queremos que la confianza se reestablezca en los mercados (…) Es injusto que las familias de bajos ingresos (más desfavorecidas) sean las que “paguen el pato” (…) de las consecuencias de una época dominada por una élite política y económica que se ha centrado en el beneficio a corto plazo, (…) en lugar de en la consecución de un crecimiento sostenible a largo plazo. (…) El crecimiento económico sólo puede estar basado en las innovaciones y las ganancias de productividad, que se derivan de una mejor educación y de mejores infraestructuras.”

“Los gobiernos y los encargados de adoptar decisiones pueden aprovechar esta crisis como oportunidad única para replantearse en profundidad cómo gestionar los asuntos económicos. (…) Las perspectivas son prometedoras, … si tenemos la paciencia para soportar con calma esta “tempestad” y utilizar esta crisis como una oportunidad excepcional.”

Didier Sornette escribió esto antes de que ganara Barack Obama. Es un discurso que me suena. Es un discurso que me gusta. Didier es un optimista, pero me cae bien.

El equipo económico que ha anunciado Obama no me gusta. No me cae bien Timothy Geithner, exjefe del Banco de la Reserva Federal de Nueva York, ni creo que Lawrence Summers, a quien sustituye, deba encabezar el Consejo Nacional de Economía. Sus actuaciones hasta ahora no han sido de mi agrado. Espero equivocarme. Pero no me gusta que algunos de los responsables de que estemos en crisis sean nuestros futuros salvadores. Salvo Christina Romer, como jefa del Consejo de Asesores de Economía de la Casa Blanca, el resto me suena a más “neocon” en un “universo en crisis” debido a los neocon. Espero equivocarme, por el bien de todos.

Algunos afirman que la cabeza de Bernanke caerá en el 2010, cuando le toca renovar. Será un gran error por parte de Obama si así ocurre. Summers, su posible sustituto, en mi opinión personal, no da la talla. Espero equivocarme, por el bien de todos.

El año que viene es el año de Darwin. Se cumple el 150 aniversario de la publicación de su libro “Sobre el origen de las especies por medio de la selección natural” (“On the Origin of Species by Means of natural Selection or the Preservation of Favored Races in the Struggle for Life”). También se celebra el 200 aniversario de su nacimiento.

La teoría de la evolución es un hecho científicamente probado. Ha sido demostrada tanto en laboratorio (condiciones controladas) como en la Naturaleza. Los avances en genética molecular han sido fundamentales para ello. Sin embargo, la teoría de la evolución requiere ciertas hipótesis que como tales han de ser verificadas experimentalmente. La hipótesis de Darwin de que todas las formas de vida son descendientes de un única célula ancestral ha de ser verificada experimentalmente. Shi V. Liu, en “A Fundamentally New Perspective on the Origin and Evolution of Life,” ArXiv preprint, 21 Nov 2008 , aceptado para publicación en PNAS, nos indica que existen evidencias fuertes que sugieren que esta hipótesis es incorrecta.

La evidencia experimental apunta a que toda una serie de diferentes células primitivas se originaron a partir de formas de vida no celular. Estas diferentes células evolucionaron de forma independiente, siguiendo las mismas “leyes” evolutivas darwinistas, aunque también interactuaron entre sí. Esta nueva hipótesis permite entender la ausencia de ciertos eslabones perdidos en la historia de la evolución de las primeras formas de vida puestos en evidencia gracias a los análisis genéticos. Hay varias líneas filogenéticas que no parece que convergan entre sí.

Esta idea no es nueva. Si la evolución de las primeras formas de vida está controlada por mecanismos físico-químicos, cómo podemos entender que sólo se desarrollara una única forma de vida celular ascentral. Lo razonable es que se formaran múltiples formas de vida primigenia en competición.

El artículo se lee fácil, aunque desafortunadamente adolece de pruebas feacientes y no dice mucho más de lo que aquí he resumido.

La foto es una portada de National Geographic relativa a un artículo que comparaba darwinismo y neodarwinismo. La pena que un titular de portada “¿Estaba Darwin equivocado?” puede inducir a que muchos ojeadores de quiosco, que no leen más que las portadas, se vean inducidos a pensar que es un artículo reivindicando ideas creacionistas. Craso error inducido por el editor de la revista. ¿O quizás el editor ha buscado la polémica para vender más ejemplares?

dibujo200807824jaramatEl Hajj es la peregrinación que realizan los musulmanes a La Meca, Arabia Saudí. El musulmán debe peregrinar al menos una vez en la vida a la ciudad de La Meca, siempre y cuando tenga los medios económicos y las condiciones de salud necesarias. Se realiza durante el duodécimo mes del calendario musulmán. Más de 3 millones de fieles se congregan en un solo día en La Meca para realizar el Hajj.

Una tragedia ocurrió el 12 de enero de 2006 en el puente de Jamarat, en la ciudad saudita de Mina, cerca de La Meca, en la última jornada de la peregrinación anual, con al menos 345 peregrinos aplastados por una avalancha humana. La foto presenta el nuevo puente de Jamarat que ha sido diseñado utilizando los más recientes avances en el estudio de las avalanchas de multitudes humanas, para evitar la posible causa de la tragedia: la turbulencia de la multitud (crowd turbulence), D. Helbing, A. Johansson and H. Z. Al-Abideen, “The Dynamics of Crowd Disasters: An Empirical Study,” Physical Review E 75, 046109, 2007 [ArXiv preprint]. La página web de los autores nos muestra algunos vídeos utilizados en su análisis así como un análisis de las ondas de “presión” humana estimadas por su algoritmo de análisis de dichas imágenes. Recomiendo ver los cuatro porque son muy interesantes.

Los investigadores utilizaron los datos de las cámaras instaladas para filmar la multitud en el puente para extraer las posiciones y velocidades de los peatones en función del tiempo. Los autores han observado que incluso en multitudes con una densidad muy alta de personas (hasta 10 por metro cuadrado), el movimiento de la multitud no está completamente parado. Ello provoca que haya densidades locales altas (supercríticas). Cuando la densidad es baja, la multitud avanza de forma fluida (flujo laminar). Sin embargo a altas densidades pueden aparecer una transición brusca entre el flujo laminar y dos nuevos tipos de flujo. Por un lado, las ondas avance-parada (stop-and-go) que aparecen cuando la densidad es alta y el flujo se encuentra por debajo de un flujo crítico. Este tipo de ondas son similares a las ondas de choque en el tráfico de automóviles. Por otro lado, el flujo humano turbulento, cuando las “presiones” en la multitud superan un cierto umbral (este tipo de flujo no se da en vehículos, que se sepa). En flujo turbulento, las personas pierden el control de su marcha, se les salen los zapatos, se atrancan con los vestidos de otros, encuentran dificultades para respirar, lo que unido al calor puede provoca ansiedad y hasta asfixia. Más aún, el acceso a los caídos para darles la atención requerida se vuelve imposible. Se “masca” la tragedia.

Lo importante de este trabajo de investigación, aparte de descubrir un nuevo fenómeno de interés científico, es que permite sacar conclusiones sobre como diseñar las vías de paso (como el puente de Jamarat) para multitudes con objeto de evitar las condiciones que provocan un flujo “peligroso”. Los autores presentan en su artículo una serie de recomendaciones sobre cómo rediseñar este puente en concreto. Desafortunadamente, como se lamentan los autores en su web (ver los párrafos finales) no todas sus recomendaciones han sido consideradas en el diseño. Ciertas decisiones políticas, de mayor prioridad, así como otras decisiones de equipos de expertos sauditas independientes, muchas veces en conflicto con las recomendaciones de estos expertos “extranjeros” también han sido tenidas en cuenta. Como era de esperar.

El siguiente video muestra las recomendaciones gubernamentales para la próxima Hajj con especial énfasis en el tránsito por el nuevo puente de Jamarat. Aunque con un locutor en árabe, creo que no es difícil entender qué están contando, incluso si apagáis el sonido. El primer tercio habla de la construcción del nuevo puente, el segundo de las medidas de seguridad contra tragedias que incorpora y el último tercio son recomendaciones a los peregrinos para hacer más cómodo su viaje.

http://es.youtube.com/watch?v=Zgyf2aHS6Hc

dibujo20081124cafetera¿Te gusta el café? Quizás te interese conocer la fí­sica de la cafetera “estándar”. Concetto Gianino, “Experimental analysis of the Italian coffee pot “moka”,” American Journal of Physics, 75: 43-47, 2007, presenta la termodinámica de la cafetera mostrando que, aunque es termodinámicamente muy ineficiente como máquina de calor, no importa, ya que lo que realmente queremos es que el café resultante tenga un buen sabor. El artículo, desafortunadamente, no nos aclara cuándo se obtiene un café ideal (en cuanto a sabor).

¿Cómo es el café espresso ideal? Ernesto Illy, “The complexity of coffee,” Scientific American, 286: 86­91, 2002, presenta un estudio de la quí­mica del café recién hecho y muestra que los sabores que se consideran más agradables se obtienen cuando la temperatura del agua es del orden de 93ºC, la presión es suficiente para permitir que el volumen de agua que atraviese el “cazo” de café granulado de la cafetera “moka” corresponda a una sola taza (entre 30­ y 50 mililitros) y el agua fluya a través de éste durante unos 30 segundos o menos. Si el agua está más caliente de 95ºC, el café tiende a saber “quemado”, y si es menor que 93ºC, algunos de los sabores “más gustosos” del café se quedan en el grano.

¿Cómo podemos obtener un café ideal en una cafetera “estándar”? Warren D. King, “The physics of a stove-top espresso machine,” American Journal of Physics, 76: 558-­565, June 2008, presenta un análisis de la cafetera estándar (exactamente la que aparece en la foto; por cierto, yo tengo una igual) con objeto de determinar la cantidad de agua con la que hay que rellenarla para obtener un café a la temperatura óptima (en el rango de 90­ a 95 ºC).

dibujo20081124cafeteraworkingEl funcionamiento de la cafetera es bien conocido. Se llena parcialmente de agua la vasija (vessel) a presión y se pone al fuego. El agua caliente se eleva por el tubo (exit tube) hasta alcanzar el contenedor con el café (coffee plug). Mezclada con el café el agua caliente sale por la parte superior en forma de café líquido. Este proceso puede durar varios minutos. El agua fluye hasta que el nivel de agua dismuye hasta que su nivel cae por debajo del tubo (exit tube). En este momento sólo vapor de agua puede ascender hacia arriba, produciendo el conocido “pitido,” señal sonora que nos advierte que el café está listo para ser servido.

¿Hay que esperar a que el agua hierva? No, aunque la mayoría de los manuales afirman que sí y que la presión dentro de la vasija tiene que ser la presión de vapor del agua. Esto no es necesario. De hecho, se puede obtener un café de mejor calidad si no permitimos que el agua llegue a hervir, eso sí, siempre y cuando no nos importe dejar de escuchar un sonoro “pitido”.

Por supuesto, si calentamos la cafetera hasta una temperatura inferior a 100ºC el volumen de agua que se asciende como café puede ser inferior al volumen de la vasija. Si queremos un café mejor habrá que desaprovechar cierta cantidad de agua. Lo ideal es que el café se “cocine” a una temperatura inferior a 95ºC, aunque superior a 90ºC.

El artículo de Warren D. King presenta un modelo muy fácil de entender para la física de la cafetera que el propio autor valida utilizando datos experimentales de propia cosecha. Los experimentos son fáciles de repetir y pueden ser un buen objeto de estudio práctico para un laboratorio de física o de termodinámica.

Muchos dicen que los italianos son los reyes del buen café. Si sabes italiano (o te atreves a leer algo escrito en italiano) el artículo A. Varlamov, G.Balestrino, “La fisica di un buon caffè,” será de tu interés.

“Phishing” es un término difícil de traducir que alude a una estafa informática basada en el envío de correos electrónicos, mensajes de móvil, llamadas telefónicas, etc., en los que el delincuente se hace pasar por una persona o empresa de confianza para lograr información “privada” sobre nosotros, como números de tarjetas de crédito o contraseñas. Muchos se hacen pasar por bancos.El “phising” es un negocio lucrativo gracias a las “mulas,” quienes se encargan de convertir la información “privada” obtenida en dinero en efectivo. La mayoría de las mulas ignoran que lo son y tratan de aprovecharse del “timo de la estampita” que les ponen por delante. Muchas mulas creen (o quieren creer) que el “empleo” que les ofrecen es completamente legal y que han tenido mucha “suerte” en lograrlo. Recuerda, nadie da nada por nada.

No seas una mula, chaval. La mejor protección es estar atentos a los http://www… que aparezcan en el correo (muchos de ellos son el correcto “mal escrito”) y ante la duda, busca el correcto de la empresa / banco correspondiente en Google y conéctate directamente a él. Si te han pedido información “privada” porque tu banco la necesita, la petición también aparecerá en la página web “legal” del mismo. De hecho, los bancos nunca pedirán esta información, pues ya la tienen.

El artículo de Lorrie Faith Cranor, “Can Phishing by Foiled?,” Scientific American, dec. 2008 , nos indica que la mejor manera de combatir el phishing es la formación de los usuarios. El grupo de investigación de la autora ha desarrollado diferentes herramientas para aprender a diferenciar entre correos / direcciones web (URL) correctas y falsas. Me parece interesante la iniciativa de usar videojuegos online como Antiphishing Phil (Carnegie Mellon University) y Antiphishing Phil (Wombat Security Technologies). El artículo técnico es “Anti-Phishing Phil: The Design and Evaluation of a Game That Teaches People Not to Fall for Phish,” S. Sheng et al., 2007.

Es una pena que ambas versiones del juego estén en inglés lo que limita su utilidad a los usuarios hispanohablantes. ¿Para cuándo alguién se atreverá a desarrollar una traducción?

dibujo20081123motorLa industria automovilística mundial está en crisis. Las crisis tienen algo positivo. Son la mejor ocasión para darle al “coco” y buscar nuevos avances, nuevas tecnologías. El gran problema, el gran número de accidentes y accidentes mortales en carretera y ciudad, debe ser resuelto. Las grandes empresas automovilísticas están buscando soluciones, como nos lo cuenta Steven Ashley, “Driving Toward Crashless Cars,” Scientific American, December 2008 .

Entre las soluciones propuestas, la comunicación sin cables entre vehículos me parece la más prometedora en relación coste/calidad. La comunicación vehículo a vehículo (V2V) y vehículo a infraestructura (V2I) permite que nuestro automóvil reciba información sobre el estado actual de la carretera en tiempo real. Por ejemplo, nuestro vehículo podría recibir la advertencia emitida por un semáforo de que otro vehículo a acelerado con objeto de cruzarlo en amarillo-rojo, en lugar de frenar, lo que nuestro vehículo puede utilizar para ir frenando y advertirnoslo con una señal luminosa oportuna. Otro ejemplo, un automóvil cuyo conductor pegara un frenazo brusco, advertiría a los demás vehículos de este hecho, y gracias al efecto dominó, un vehículo a cientos de metros en una carretera podría advertir de este hecho a su conductor mucho antes de que su conductor pueda llegar a percibirlo sin ayuda.

Hoy en día, la tecnología está ahí. Muchos automóviles incorporan GPS y ordenadores lo suficientemente potentes como hacer práctica esta posibilidad. Toyota, General Motors, Nissan y otros ya están trabajando en las técnicas V2V, y países tan avanzados como Japón están desarrollando prototipos V2I.

Más información: ¿Qué es el sistema V2V?Sistema V2V de General Motors.” “La comunicación entre vehículos llegará en 2012.”

Technical Report: “A REVIEW OF VEHICLE-TO-VEHICLE AND VEHICLE-TO-INFRASTRUCTURE INITIATIVES