Claudi Mans (i Teixodó) es catedrático de Ingeniería Química de la Universidad de Barcelona, químico, y divulgador científico. En su libro “Tortilla quemada” traduce al español su libro en catalán “La truita cremada.” ¿Por qué los autores catalanes cuando traducen sus propios libros al español lo hacen tan mal? ¿Odian el español? ¿Lo han olvidado? Es una pena, olvidan los millones de posibles lectores de sus libros en latinoamérica. Quizás debieran recordar lo que un embajador alemán le dijo a un embajador español, “los alemanes os envidiamos a los españoles porque vuestro idioma perdurará y el nuestro acabará por desaparecer.”

Cientos de millones de personas hablan el español, muy pocos el alemán o el catalán. ¿Por qué despreciar el español? Dejando aparte la “traducción,” el libro se deja leer, tiene sus más y sus menos, pero lo importante en un libro de divulgación, que aprendas, lo consigue, que no es poco.

Como libro de “recetas” divulgativas (“vulgares,” recordad que divulgación en inglés es “vulgarization”) está bastante bien. Logra que aprendas algunas cosas y te sorprende por los conocimientos del autor, no sólo de química, si no de historia y de la vida misma. A veces peca de pedante, como en el capítulo 19, “Calefacción sin control,” o en el capítulo 21 con la “Ciudad química (Barcelona)”. Pero en general es un libro bastante recomendable, que se deja leer bien (si no esperas mucho, te sorprenderá, si esperas demasiado, te decepcionará). Por cierto, me estoy repitiendo, cual tortilla “española” quemada (cuidado con el ajo y la cebolla).

El primer capítulo del libro, sin lugar a dudas el mejor, “Meditación ante una tortilla quemada: mojar, adherir y lavar,” muestra el estilo de lo que debería ser el resto del libro, pero pone el listón alto y el resto decepciona (por comparación). Los capítulos 2 y 3, ni fu, ni fa. Sobran. El cuarto, “Flanes” te hace pensar, pero ¿por qué tanto rodeos y no ir directo al grano? ¿Eso es la divulgación? La idea es bueno pero la “forma” podría ser mucho mejor.

El capítulo 5 empieza “El comportamiento humano oscila entre el individualismo y el gregarismo,” y continúa con “Os cuento mi vida.” Quizás debería continuar con el capítulo 18, “Ligar,” que sí, va de ligar, flirtear, buscar pareja, … El capítulo 6 no convence y el 7 “entropología” demasiado pedante. El octavo “los mendigos de la tumba de Haji Ali” me ha resultado “conocido” (pero no sabría decir de dónde) pero está muy bien. Me ha gustado.

El capítulo 9 sobre la “Termodinámica y cinética de un examen” es, cuanto menos, muy discutible, es de catedrático “chapado a la antigua.” El décimo, con su “God dag” (“buenos días” en islandés) te hace pensar ¿no me he dado cuenta, tendré que hacerlo? Me ha gustado. El capítulo 11, como otros en el libro al estilo simplicio-salviati galileano es flojo, no domina estos lares el autor. A qué vienen esos “¿Cómorrr?” Pero bueno, el capítulo 12, curioso “¿Qué es un huevo duro?” El décimotercero, no iba a ser menos, muy flojo, pero es que el capítulo 14 tampoco ofrece nada más allá y resulta, en cuanto a estilo, muy pesado. Me he visto obligado a “obligarme” a mí mismo a leerlo, ya que tras las dos primeras páginas el cuerpo me pedía dejar de leer el resto del capítulo y del libro. Aguanté, pero os confieso, decepcionante.

Empieza bien la “Parábola de la mayonesa y el alioli,” pero la faena es rematada con poca maestría. Hay cierta pedantería en el autor que “molesta” (no será que yo también soy pedante, lo confieso, lo soy). “Salpicar,” capítulo 16, tiene un pésimo inicio, pero el final no decepciona. “A contracorriente,” me recordó algo, no está mal y me obligó a repetir los cálculos matemáticos, harto simples, pero me recordó… bueno el autor lo resuelve al final. Conforme el libro se va acabando va flojeando…

No cuento más. Son pequeñas “píldoras” divulgativas, algunas mejores, otras peores, pero que se leen con facilidad (que una no te gusta, pasas a la siguiente y no te pierdes nada). Si te animas, que lo disfrutes.

Piedra nativa

La luz devasta las alturas Manadas de imperios en derrota El ojo retrocede cercado de reflejos

Países vastos como el insomnio Pedregales de huesos

Otoño sin confines Alza la sed sus invisibles surtidores Un último pirú predica en el desierto

Cierra los ojos y oye cantar la luz: El mediodía anida en tu tímpano

Cierra los ojos y ábrelos: No hay nadie ni siquiera tú mismo Lo que no es piedra es luz

Octavio Paz

Antonio Córdoba (Barba) es Catedrático de Análisis Matemático de la Universidad Autónoma de Madrid (UAM). Estudió su doctorado en The University of Chicago, en 1974, bajo la dirección del genial Charles L. Fefferman, quien también le dirigió la tesis doctoral a su hijo, Diego Córdoba, en la Princeton University, 1998, sobre inestabilidades en flujo quasi-geostrófico (el modelo matemático más usado para la troposfera en meteorología).

De Antonio os recomiendo sus curiosos “Tontetos, difeorrimas y ripiolemas,” y su interesante artículo “Un matemático en la Transición” GACETA DE LA REAL SOCIEDAD MATEMÁTICA ESPAÑOLA, 7:29-48 (2004), donde glosa su historia profesional en el marco de matemática española del tardofranquismo de principios de los 1970s. “Lo mejor es enemigo de lo bueno,” E. Thevenin.

En aquella época los estudiantes eran “revoltosos” por no decir “revolucionarios.” Escuchaban a Paco Ibañez y leían a Bourbaki. Sin embargo, “la promoción que acabó en el año 1971 convirtió en objeto de caza deportiva la ignorancia.”

Germán Ancochea, autor del primer artículo de un español en la prestigiosa Annals of Mathematics, afirmaba “en esta Facultad, un analista es el que no sabe Álgebra, un algebrista es el que no sabe Análisis, un geómetra…” Don Germán le presentó a Antonio un joven que acababa de doctorarse en la Universidad de Chicago, Miguel de Guzmán, bajo la dirección de Alberto Calderón, quien le acabó ayudando para desarrollar la suya con Charles Fefferman, el “full professor” (catedrático) más joven de la historia de la universidad americana.

Antonio describe con cariño su paso por Chicago donde fue durante tres años el único estudiante presente en los seminarios del Departamento de Matemáticas, organizados por Antoni Zygmund, en los que destacaba la habilidad de Calderón con el cigarrillo (entonces fumar en clase no era políticamente incorrecto) para mantener la ceniza, que alcanzaba tamaños inverosímiles antes de ser echada al cenicero.

Antonio defendió su tesis doctoral sobre el problema de Kakeya (“Perseguí un enigma, / le ofrecí mi tiempo. / Inventé estrategias / que se llevó el viento. / Formulé preguntas, / coseché el silencio. / Inicié mil cuentas / que jamás luz dieron. / Se esfumó mi esfuerzo / en tan vano empeño: / ni obtuve la prueba / ni el gran contraejemplo. / Lo que yo buscaba / estaba muy lejos“), aceptó una de la Universidad de Princeton, a la que se incorporó en septiembre de 1974 y se fue de vacaciones con su esposa en Volkswagen Escarabajo rojo, siguiendo la famosa ruta 101 cantada por Bob Dylan.

“El reciente desarrollo de las Matemáticas en España resulta inconcebible sin contar con esa pléyade de estudiantes que fueron becados para hacer el doctorado en buenas escuelas del extranjero, de Estados Unidos y Francia fundamentalmente. El hecho de que también se produjese luego una gran expansión en el número de puestos docentes de las universidades españolas propició un retorno fácil de la mayoría de ellos.”

Aún así, la España de aquella época y quizás la España de hoy en día, queda muy bien reflejada en “sorprende lo fácil que resulta entre nosotros descalificar a quien despunta un poco, por haber visto otras realidades y tener otras experiencias, y nos señala algún camino de mejora. (…) sorprende que, en diez años escasos, aquellos universitarios que se emocionaban con las consignas de “prohibido prohibir”, “la imaginación al poder” o “seamos realistas, pidamos lo imposible”, hubieran trocado los anhelos abstractos en comodidades concretas. En vez de cambiar la Universidad habían cambiado ellos.”

Antonio Córdoba nos cuenta en “Matemáticas: Un Departamento en tiempos de la Movida,” como se fundó el Departamento de Matemáticas de la UAM, en el tiempo de los bandos de Enrique Tierno Galván y el cine de Pedro Almodóvar. Era una época de quejas continuas por “los pocos recursos y atención que recibía la ciencia en nuestro país.” La época en la que la contratación de plazas en la Facultad dependía del número de artículos y no de su calidad (Fernando Varela señaló que con estos criterios “la autora Corín Tellado quedaría muy por delante de Miguel de Cervantes” y el propio Antonio llegó a citar a “los Luthiers, por aquello de que “en rigor no es mejor por ser mayor o menor” la lista de publicaciones, se entiende”).

Diego Córdoba (Gasolaz) es hijo de Antonio y matemático en el IMAFF del CSIC. Su artículo de divulgación “Las matemáticas de los fluidos: torbellinos, gotas y olas,” junto a Marco Antonio Fontelos y José Luis Rodrigo, LA GACETA DE LA RSME, 8:53-83 (2005) merece una lectura cuidada y que le dediquemos esta entrada.

Empieza fuerte “a pesar de su importancia (práctica), el análisis de los fluidos tropieza con enormes dificultades de naturaleza matemática.” Ya el premio Nobel Richard Feynman calificó a la turbulencia como “the most important unsolved problem of classical physics”.

“Fue Leonard Euler quien, en 1755, escribió por primera vez las ecuaciones diferenciales que rigen el movimiento de un fluido no viscoso. Setenta años después C. Navier e, independientemente, G. Stokes introdujeron el término de viscosidad en las ecuaciones que hoy denominamos de Navier-Stokes.” La diferencia más importante entre las ecuaciones de Euler y las de Navier-Stokes es que las primeras conservan la energía pero en las segundas ésta decrece. Diego nos recuerda que “A fecha de hoy, casi doscientos años después, la mera existencia de soluciones únicas no está garantizada, por lo que, en principio, las soluciones de dichas ecuaciones podrían desarrollar singularidades, es decir valores no acotados de la velocidad o de sus derivadas, o estructuras casi singulares en tiempo finito.”

La existencia (local) de soluciones de las ecuaciones de Navier-Stokes fue demostrada en 1933 por J. Leray, no obstante, la unicidad de estas soluciones sigue siendo un problema abierto. Por ejemplo, para Euler la unicidad es falsa, pueden generarse singularidades. ¿Se generan singularidades en las soluciones de la ecuación de Navier-Stokes en dimensión n=3? J. Leray lo conjeturó como posible explicación del fenómeno de la turbulencia. En dimensión n=2, no es posible la generación de dichas singularidades, con lo que las soluciones locales son también globales (tanto para Euler como Navier-Stokes).

“¿Puede el fluido desarrollar una singularidad en tiempo finito? Hasta ahora todos los teoremas van en la dirección negativa. No obstante el ejemplo más simple, que cualquiera puede experimentar en casa, es la formación de una gota de agua y su posterior ruptura. (…) Los experimentos muestran que la viscosidad desempeña un papel fundamental en la geometría de la ruptura de las gotas; en el caso muy viscoso se observa la formación de filamentos muy delgados que finalmente desaparecen.”

Las inestabilidades y singularidades en fluidos más estudiadas están asociadas a interfases. La más conocida es la inestabilidad de Rayleigh (1879) para una columna de fluido no viscoso que él estudió en la aproximación lineal pero que también se ha estudiado en el caso de pequeñas perturbaciones no lineales. ¿Qué pasa cuando incluimos la viscosidad? ¿La inestabilidad de Rayleigh desemboca en una ruptura del tubo fluido en tiempo finito, tal y como la experiencia demuestra, o no? “Hoy por hoy, no hay demostración de que tal cosa ocurra o, por contra, de que el sistema de Navier-Stokes no contenga soluciones con ruptura de interfases (con la consiguiente formación de gotas) en tiempo finito.” Los únicos resultados conocidos han sido obetnidos mediante simulaciones numéricas.

Otra inestabilidad muy conocida es la de Kelvin-Helmholtz para el movimiento bidimensional de dos fluidos inmiscibles, incompresibles y no viscosos separados por una interfase. Tampoco existe demostración matemática rigurosa sólo evidencia numérica.

Muchos problemas matemáticos en física de fluidos aún por resolver. No en balde, uno de los Premios del Milenio del Instituto Clay, dotados con un millón de dólares, es relativo a la unicidad de las soluciones de las ecuaciones de Navier-Stokes. ¿Cómo no? La descripción del reto es de mismísimo Charles L. Fefferman, “EXISTENCE AND SMOOTHNESS OF THE NAVIER-STOKES EQUATION,” de quién si no (el padre científico de los Córdoba).

Seth Lloyd del Departamento de Ingeniería Mecánica del MIT, es uno de los grandes expertos mundiales en computación cuántica y de los pocos que ve la computación cuántica adiabática con buenos ojos. ¿Y qué hace un investigador cuya tesis doctoral iba de agujeros negros en un Departamento de Ingeniería Mecánica (en España sería una Escuela Técnica Superior de Ingenieros Industriales)? Bueno, “de las cosas del querer”… no hablaré.

Un fotón (351 nm) incide sobre un cristal óptico no lineal que genera dos fotones entrelazados (702 nm) en polarización (vertical y horizontal).

Hoy en día, Seth Lloyd es un genio “bien” conocido y puede publicar lo que quiera y donde quiera. Acaba de publicar “Enhanced Sensitivity of Photodetection via Quantum Illumination,” Science, Vol. 321. no. 5895, pp. 1463-1465, 12 September 2008 . Para ver, necesitamos iluminar los objetos con luz, ¿qué pasa si la luz es cuántica? Mejor dicho, si la luz está entrelazada mecánico-cuánticamente. El estudio de Lloyd muestra que esta luz “ve más” que la luz no entrelazada. ¿En qué sentido? Si los objetos que queremos ver están sujetos a un entorno altamente ruidoso, los fotones entrelazados permiten incrementar la relación señal-ruido en un factor exponencial (una potencia de 2). Ver con pocos fotones, si están entrelazados, permite ver exponencialmente mejor. Lo sorprendente: esta “visión mejorada” se mantiene incluso cuando los fotones reflejados son altamente ruidosos (reflejando el ruido del objeto “visto”).

El artículo es “fácil” de leer (sobre todo si conoces algo de la matemática de la Mecánica Cuántica y si omites la información suplementaria, técnicamente más “dura”) y define un nuevo campo del conocimiento humano: la iluminación cuántica (Quantum illumination) que tendrá gran número de aplicaciones sobre todo en metrología. Por supuesto, el artículo es teórico y hay gran número de cuestiones prácticas que habrá que resolver antes de ver aplicaciones prácticas. Pero esto es lo que busca Lloyd, que le citen mucho en los próximos años y citarle, le citarán.

De hecho, uno de los expertos españoles en óptica, Juan Pérez Torres, del Departamento de Teoria de la Señal y Comunicaciones de la Universidad Politécnica de Cataluña en Barcelona, afirma, según Adrian Cho, “Quantum Flashlight Pierces the Darkness With a Few Percent as Many Photons,” Science, Vol. 321. no. 5895, pp. 1433-1443, 12 September 2008 , que la verificación experimental del resultado del artículo es “asequible en un plazo de un año”.

Supongamos que tenemos un haz de fotones, emitidos uno a uno, con frecuencias correspondientes a cierto número de colores (frecuencias). Pongamos que sean 30. Si estos fotones están entrelazados (se generan para que lo estén), el estado del haz es tal que cada fotón individual pierde su individualidad y “no sabe” qué color tiene. Es como si cada fotón, “simultáneamente” tuviera los 30 colores posibles. Por supuesto, cuando estos fotones interactúan con un objeto se produce una “medida cuántica” de su estado (colapsa el estado) y adquieren, aleatoriamente, una frecuencia única entre las 30 posibles.

¿Cómo aprovechar el entrelazamiento para ver más? Podemos entrelazar los fotones de modo que, aunque cada fotón del haz no sepa qué color tiene, la “suma de todos” tenga una propiedad determinada (por ejemplo, que cuando todos sean medidos la suma de sus frecuencias resultantes coincida con el doble de la frecuencia media de todos lo colores posibles). Utilizaremos dicha propiedad para “ver” el objeto. Supongamos que un fotón concreto incide en el objeto (sumergido en un ambiente muy ruidoso) y es medido, reflejándose con un color determinado. ¿Qué pasa si comparamos su color conocido, con el color desconocido de cualquier otro fotón? Hay una probabilidad de 1 sobre 30 de que coincidan. Esta es la clave para que el ruido “no sea visible”: el ruido del objeto cambiará el color del fotón, pero si lo hace en uno de los 29/30 colores que nos restan, el ruido es incapaz de alterar el resultado de la comparación. La probabilidad de que el ruido nos afecte a la hora de ver los colores del objeto es de 1/30 (y se podría hacer muy pequeña si utilizáramos fotones con muchos millones de frecuencias o colores, según propone Lloyd).

Lo sorprendente del trabajo de Lloyd es que, aunque el entrelazamiento se pierde tras la medida de los fotones (su reflejo en el objeto), la visión mejorada no se ve afectada por este efecto, basta con que los fotones estuvieran inicialmente entrelazados. Dice Torres que “esto es sorprendente, aunque el entrelazamiento es destruido por la medida, persisten ciertas correlaciones [cuánticas no locales] que garantizan una visión mejorada”.

Las propiedades del “entrelazamiento cuántico” son siempre sorprendentes (y están en la base de las ventajas de la computación cuántica respecto a la clásica). El artículo de Lloyd nos ofrece nuevas “visiones” sobre nuestro “paradójico” mundo cuántico (paradójico para los que vivimos un día a día clásico).

El test de Turing, que según nuestro amigo Carlos de la Singularidad Desnuda “es uno de los más clásicos intentos de caracterizar la inteligencia humana y determinar si un sistema artificial puede considerarse “inteligente”,” tiene su expresión práctica más conocida en los CAPTCHAS (Completely Automated Public Turing test to tell Computers and Humans Apart, Prueba de Turing pública y automática para diferenciar a máquinas y humanos), es decir, cadenas alfanuméricas distorsionadas que deben ser leídas, entendidas y tecleadas como clave de acceso a ciertos sitios web. Casi todos hemos tenido que superar un CAPTCHA alguna que otra vez. La idea no es muy antigua, de Luis von Ahn, Manuel Blum, Nicholas J. Hopper, and John Langford, “The CAPTCHA Web Page,” 2000); os recomiendo a los interesados el artículo técnico de Luis von Ahn et al. “CAPTCHA: Using Hard AI Problems for Security,” EUROCRYPT 2003, Lecture Notes in Computer Science, 2656: 294-311, 2003 .

Igual que con los virus y los antivirus (es imposible programar un antivirus para eliminar un virus que aún no ha sido desarrollado, con lo que los hackers que saben cómo funcionan los antivirus actuales pueden programar virus “inicialmente” indetectables) los captchas (tests de Turing) han de ir mejorando constantemente ya que los hackers pueden desarrollar algoritmos para superarlos. “Echa” la ley, “echa” la trampa.

¿Siempre habrá cosas (tareas) que podrán hacer los humanos pero no las máquinas (computadores)? ¿Siempre habrá humanos capaces de lograr que las máquinas resuelvan tareas que “se suponía” que las máquinas no podían resolver?

Ya hay software capaz de superar muchos de los CAPTCHAs que encontramos “todos los días” en Internet, por ello, los investigadores que inventaron los CAPTCHAa han tenido que inventar los reCAPTCHAs (“hablando de cojo…, recojo…”). No es noticia, ni debería serlo, pero la noticia es que lo han publicado en Science (os recuerdo, índice de impacto en 2006 de 30.028): Luis von Ahn, Benjamin Maurer, Colin McMillen, David Abraham, and Manuel Blum, “reCAPTCHA: Human-Based Character Recognition via Web Security Measures,” Science, Vol. 321. no. 5895, pp. 1465-1468, 12 September 2008.

Bueno, seamos sinceros, en realidad el artículo publicado en Science tiene una utilidad práctica más allá de la seguridad informática (en otro caso no lo hubieran publicado en Science, tiene que haber una “noticia” detrás para que sea publicado).

¿Por qué no usar a las personas que resuelven los CAPTCHAs como “computadoras humanas” para resolver problemas prácticos?

Sí, has leído bien, por qué no usar a las personas que resuelven los acertijos de los CAPTCHAs para que no sólo tengan acceso a un recurso sino que además resuelvan un problema práctico (aunque sin ser conscientes de ello).

¿Qué problema pueden resolver? Obviamente, el mismo que un OCR (sistema óptico de reconocimiento de caracteres). Un humano actúa como un OCR con una alta precisión (más del 99% de aciertos según los autores del artículo).

¿Y tiene que saberlo la persona que “es utilizada” como OCR? No, ¿o sí? En cualquier caso los autores han “engañado” a unos “cuantos humanos” gracias a unos 40.000 sitios web que utilizan los “reCAPTCHAs” y han sido capaces de usarlos como “OCR humano” para transcribir unos 440 millones de palabras. ¿Has sido tú uno de ellos? Quizás yo mismo lo haya sido.

¿Es ético/moral que nos utilicen? ¡Para qué otras cosas nos utilizarán en Internet!

Según los investigadores, todos los días se resuelven unos 100 millones de CAPTCHAs en la web. Proyectos de digitalización de libros, como el Google Books Project, se pueden aprovechar de este trabajo “gratis” utilizando los “reCAPTCHA”.

Por supuesto, ahora que lo sé (igual que tú que quizás te acabas de enterar), engañaré a los reCAPTCHAs de vez en cuando, no quiero que me utilicen. ¡Faltaría más!

Bueno, lo siento, los investigadores lo saben, así que utilizan un sistema de votación: la misma palabra distorsionada es propuesta a varios humanos y sólo cuando la mayoría dan una misma respuesta ésta es considerada válida. ¡No son listos los autores! ¡Qué cabr….!

Permitidme la frase en inglés con la que acaba el artículo en Science: “We hope that reCAPTCHA continues to have a positive impact on modern society by helping to digitize human knowledge.”

¡No quiero ser un “mono” en manos de estas “hermanitas de la caridad”!

¿Y tú?

Muchos editores de revistas internacionales están haciendo “ingeniería del índice de impacto”. Los hay que recomiendan a todos los autores el citar artículos (de los dos últimos años) publicados en su revista si quieren publicar en ella. Pero también los hay más listos, como nos recuerda Tomá Opatrný, “Playing the system to give low-impact journal more clout,” Nature 455, 167 ( 11 September 2008 ). Lo he leído y no me lo creo. O mejor, os lo cuento.

La revista internacional suiza “Folia Phoniatrica et Logopaedica,” tiene una buena reputación entre los investigadores en foniatría, pero su índice de impacto en 2007 era “relativamente bajo”, sólo 0.655. Dos investigadores, un danés y un checo, Harm K. Schutte y Jan G. Svec, han publicado el artículo “Reaction of Folia Phoniatrica et Logopaedica on the Current Trend of Impact Factor Measures,” Folia Phoniatr. Logop. 59:281-285, 2007, donde citan a TODOS los artículos publicados en dicha revista en los últimos 2 años. Como el índice de impacto se mide por el número de citas a los artículos de una revista en los dos últimos años, dividido el número total de artículos publicados en la revista en el mismo periodo, su único artítulo ha logrado que el índice de impacto de esta revista suba hasta 1.439. En su categoría en el JCR, “Rehabilitation,” de la que forman parte 27 revistas, Folia ha pasado de la posición 22 a la 13. Increíble resultado para un solo artículo.

¿Cómo se logra un incremento tan grande del índice de impacto con un solo artículo? Veamos el cálculo.

Citas en 2007 a artículos publicados en: 2006 = 57, 2005 = 38.

Número de artículos publicados en: 2006 = 39, 2005 = 27.

Índice de impacto = (57+39) / (38+27) = 95/66 = 1.439.

Como veis, un solo artículo es responsable de 66 de las 95 citas recibidas por la revistas (son autocitas, pero en el JCR no se tiene en cuenta este factor).

Qué pasaría si los editores no hubieran permitido que se publicara dicho artículo.

Citas en 2007 a artículos publicados en: 2006 = 18, 2005 = 11.

Número de artículos publicados en: 2006 = 39, 2005 = 27.

Índice de impacto = (18+11) / (39+27) = 29/66 = 0.439.

Por si te interesa leerlo, el artículo es de acceso gratuito. En la segunda página puedes leer literalmente “the authors have decided to put together this review, which cites all the articles published in FPL within the last 2 years. This article is thus expected to considerably increase the impact factor of this journal and its ranking. While we realize that this initiative is absurd, we feel it adequately reflects the current absurd scientific situation in some countries.”

Por cierto, Tomá Opatrný ya tiene una artículo publicado en Nature (aunque sólo sea un breve comentario). También él es listo.

Hecha la ley, hecha la trampa. España está llena de pícaros, … ¿alguien se atrave a imitar la idea con alguna revista española en el JCR?

Todo el mundo habla de lo mismo, increíble.

Yo no podía ser menos. Pero seré parco en palabras.

Si quieres leer algo, debes leer el artículo “El gran acelerador europeo de partículas arranca con éxito,” de gran divulgador JAVIER SAMPEDRO, en El País, donde se explica qué es el bosón de Higgs (siguiendo al conocido Miller). Sampedro no ha decepcionado. Como casi siempre. Os recomiendo su libro “¿Con qué sueñan las moscas? (Ciencia sin traumas en 62 píldoras)” en el que recopila artículos que preparó durante un verano para El País.

Por cierto, la foto de arriba muestra las históricas primeras 2 vueltas del haz de partículas en todo el anillo (muy buena precisión, pero aún habrá que mejorarla). La trayectoria del haz no ha sido perfecta pero “casi” como muestra la figura de abajo (línea verde que muestra la trayectoria (posición) del haz durante la primera vuelta a todo el anillo). La línea central sería la calibración perfecta y las fluctuaciones indican que los imanes superconductores han hecho muy bien su trabajo y han conseguido un haz bien colimado oscilando levemente alrededor de la posición deseada.

Todo un éxito, faltaría más. ¿Tendrá el mismo éxito mediático cada uno de los descubrimientos que se esperan? Supongo que no, pero es bonito desear que sí.

Interesante artículo el de Sue Nelson, “The Harvard computers,” Nature 455, 36-37 ( 4 September 2008 ), sobre la época en la que las computadoras no eran máquinas sino mujeres. La foto, tomada en el Observatorio Harvard en Cambridge, Massachusetts, cerca de 1890, muestra 8 mujeres vistiendo trajes de estilo victoriano que están calculando, son “computadoras humanas” (término usado desde principios de los 1700s), miembros del así llamado “harén de Pickering”. Estas mujeres están analizando fotografías del firmamento, catalogando estrellas.

Desde que se acoplaron cámaras fotográficas a los telescopios fue necesario el uso de personas que catalogaran y clasificaran la infinidad de datos que se obtenían. Un trabajo repetitivo que requería medir el brillo, la posición y el color de cada estrella en la placa fotográfica. Desde los 1880s hasta los 1940s, el Observatorio Harvard amasó medio millón de placas de cristal fotográfico, unas 300 toneladas de material que contenían la foto de unos 10 millones de estrellas. Un equipo de mujeres se encargaba de analizar estas fotografías, muchas veces por un sueldo ínfimo (los computadores eran mujeres porque el salario de éstas era más bajo que el salario de los hombres) y sin formación científica alguna (salvo raras excepciones). Bueno, seamos rigurosos, William Elkin, director del Yale Observatory, en 1901 afirmó que “prefería contratar mujeres como computadoras, no sólo porque aceptaban un salario más bajo, también eran más adecuadas para el trabajo rutinario ya que tenían más paciencia.”

Edward Pickering, director del Harvard College Observatory desde 1877 hasta 1919, utilizó a muchas mujeres muy inteligentes en su trabajo de computadoras que condujeron a importantes descubrimientos científicos. Por ejemplo, Williamina Fleming, que en 1881, con 24 años, entró a formar parte de la plantilla de Harvard, desarrolló junto con Pickering un sistema de clasificación de los tipos estelares basado en la intensidad de sus líneas espectrales del hidrógeno aún en uso, que fue clave en la identificación de las estrellas enanas blancas. Se estima que Fleming examinó unas 200.000 placas fotográficas durante toda su vida.

Annie Jump Cannon, también miembro del harén de Pickering, capaz de medir el color y clasificar hasta 300 estrellas por hora, con un récord de 300.000 en toda su vida, fue quien desarrolló la clasificación de las estrellas en tipos O, B, A, F, G, K, y M, que aún se utiliza. Henrietta Swan Leavitt, investigadora en el grupo de Pickering, estudió las estrellas de brillo variable (ceféidas) y descubrió la relación entre sus periodos y su brillo intrínseco, clave para medir distancias astronómicas y fundamental para el descubrimiento de la expansión del universo por Edwin Hubble.

Los computadores digitales sustituyeron a las computadoras humanas. Es curioso, pero en 2006, la Planetary Society y la University of California, Berkeley, lanzaron el proyecto Stardust@Home (web). Retomando “viejos tiempos”, voluntarios sin formación científica previa fueron entrenados mediante tutoriales online para escanear fotos de aerogel en sus pantallas de ordenador y encontrar posibles rastros de polvo interestelar (no existe programa de ordenador que lo haga también como la vista de una persona). En la primera fase del proyecto 23.000 voluntarios buscaron cerca de 40 millones de imágenes. Sin su ayuda, el equipo investigador hubiera necesitado más de 20 años de trabajo. El proyecto Stardust inspiró al proyecto Galaxy Zoo en 2007, que usa voluntarios para clasificar galaxias espirales y elípticas a partir de imágenes del Sloan Digital Sky Survey. En 6 meses los voluntarios identificaron más de 500 galaxias solapadas (sólo se conocían 20 casos). Las imágenes son espectaculares.

Si te interesa formar parte de estos proyectos, aún estás a tiempo, serás uno de los herederos del harén de Pickering.

Me gusta comer bien. Hoy mi mujer ha preparado un pisto. Mi hijo ha reclamado ver la película de Walt Disney Pictures y Pixar, “Ratatouille,” que le lleva obsesionando algunas semanas. Le he preguntado a mi mujer ¿qué es el ratatouille francés? Ella me ha contestado, lo que has comido.

Receta del ratatouille: Se trata de cortar finamente en rodajas la berenjena, el tomate, el calabacín, la cebolla y los pimientos, y distribuirlos por capas en una placa de horno untada en aceite de oliva. Salpimentar y aromatizar con hierbas provenzales. Todo esto al horno hasta que las verduras queden asadas pero con cierta consistencia. Para montar el plato se disponen los discos de las hortalizas en forma de escalera de caracol. Una suave vinagreta para aliñar y listos.

La receta se cree que proviene de la alboronía, una receta andalusí. Obviamente, la alboronía no llevaba tomate ni pimiento. Hoy en día en los restaurantes que sirven alboronía lo que hacen es un pisto con berenjena.

Por cierto, una pregunta, ¿quién dirigió Shrek? Todo el mundo conoce a Matt Groening, pero quizás muchos ignoréis a los creadores de Ratatouille, el director Brad Bird, el productor ejecutivo John Lasseter y el productor Brad Lewis.

John Lasseter está considerado el “nuevo Walt Disney”. Empezó en Disney, pero en 1984 la abandonó para irse a Lucasfilm, Ltd., la empresa de efectos especiales de George Lucas. Junto a Ed Catmull, que pertenecía a Lucasfilm desde 1979 crearon Pixar (empresa que fue comprada por Steve Jobs). Catmull es uno de los grandes genios de los gráficos por ordenador de los 1970s, inventor del algoritmo de visibilidad llamado z-buffer (buffer de profundidad) clave para la resolución del problema de visibilidad en tarjetas gráficas (y unidades de procesado gráfico, GPU). Además, es uno de los inventores del mapeado de texturas (texture mapping), las estelas de movimiento (motion blur), así como las primeras técnicas para la visualización de superficies curvas (basadas en trozos o patches). En 1987 publicó, junto a Robert Cook, el software Reyes (también llamado Renderman), propiedad de Pixar y posiblemente el más utilizado en animación 3D en cine. Catmull ganó en 1993 el premio Coons Award concedido por el ACM SIGGRAPH (el equivalente al Premio Nobel en los Gráficos por Computador). Para los interesados, una breve historia de los gráficos por ordenador y sus personajes más relevantes.

Para los interesados en las curiosidades de la historia, que yo sepa, la primera aparición de los gráficos por computador 3D en una película cinematográfica fue en Futureworld (1976) (Mundo Futuro) donde se representaron la cara y la mano de Peter Fonda gracias a unos efectos aun muy sencillos creados en la universidad Utah por Edwin Catmull y Fred Parke. “Mundo Futuro” fue la última aparición en el cine de Yul Brynner antes de su retorno a Broadway. La película es más bien de serie B. La mayoría recordaréis, Tron (1982), película de Disney de cierto éxito que fue la primera película que combinó gráficos 3D y acción en directo.

¡Y tenía corazón! de Enrique Simonet y Lombardo (1863-1927).

¿Quieres investigar? Para ello el requisito “oficial” es obtener un doctorado. Cierto es, que mientras obtienes el doctorado estarás investigando, pero mientras no lo tengas serás un “estudiante” no un investigador. Los artículos “So long, and thanks for the Ph.D.!” de Ronald T. Azuma y “How to Be a Good Graduate Student,” de Marie des Jardins, serán de tu interés.

Para desarrollar con éxito tu tesis doctoral no tienes que ser un genio, basta con que tengas una respuesta sólida para la pregunta ¿para qué c… quiero un doctorado? Nadie puede contestar a esta pregunta por tí. Si no sabes para qué, desiste, no merece la pena que hagas la tesis. Si lo tienes claro, adelante. Pero recuerda que para tener éxito en tu empresa … debes tener iniciativa, tenacidad, flexibilidad, habilidades interpersonales, habilidades organizativas y habilidades comunicativas. Aún así, debes elegir “bien” a tu director de tesis, de él dependen muchas cosas durante tu trabajo (porque sí, la tesis es un trabajo como cualquier otro, y mal pagado la mayoría de las veces).

Recuerda, el doctorado es el principio, no el final, de tu carrera como investigador. No te obsesiones en desarrollar la labor de un Premio Nobel, haz un trabajo de calidad que le demuestre a tu director y al tribunal de tu tesis que eres capaz de seguir desarrollando trabajos de calidad y defiende tu tesis cuanto antes. Recuerda las palabras de Fred Brooks: Todas “las tesis no se acaban; se abandonan.”

Recuerda, debes estar muy motivado, el doctorado es un trabajo “extremadamente duro” para todos. Un truco que funciona es plantearse objetivos, a muy corto plazo (semana), a medio plazo (mes) y a largo plazo (año) y disfruta cuando los vayas cumpliendo. Conforme vayas cumpliendo con estos objetivos parciales ve a contárselo a tu director y disfruta con él de ellos. Cuanto más disfrutes con tu “duro” trabajo más garantías tienes de acabar en un tiempo razonable (de 4 a 6 años). Cuanto más sienta tu director que “sin trabajar en tu tesis” está siendo el “coautor de tu trabajo” mejor será su labor cuando llegues a un camino sin salida y él tenga que asesorte. Pero recuerda, él no hará la tesis por tí. Es TÚ tesis. Él ya hizo la suya años há.

En cuanto a las publicaciones, tan importante es la cantidad como la calidad, que no te engañen. Cuántos más artículos hayas escrito y publicado más fácil te será escribir nuevos artículos “publicables”. No te preocupes si te rechazan un artículo, a todos nos los han rechazado y nos los seguirán rechazando. Si te centras en muy pocos artículos de “gran calidad” debes recordar que quizás “otros” no piensen lo mismo. Qué pasará si te ha costado varios años escribir un solo artículo de “gran calidad” y te lo rechazan tres veces en tres revistas (y en 6 años acabas no teniendo nada publicado). ¿Te deprimes? ¿Abandonas? Tu mejor recompensa durante la tesis es que te publiquen tu trabajo. Cuantos más trabajos envíes, más trabajos te publicarán.

¿Encontrar trabajo como doctor es fácil? No, no lo es. Te gustará leer “So You Want to be a Professional Astronomer!,” de Duncan Forbes, aunque no quieras ser astrónomo, y “How long should an astronomical paper be to increase its Impact?,” de Krzysztof Zbigniew Stanek; verás que es importante escribir un artículo “largo” sobre tu trabajo de tesis pero tan importante como eso es escribir muchos artículos “cortos” (letters).Las recomendaciones de Stanek para los investigadores “principiantes,” aunque humorísticas, son muy interesantes y no deben ser olvidadas (pág. 10 de su artículo).

Mis recomendaciones: cuando empieces a investigar, publica cuantos más artículos puedas escritos por tí (revisados por tu director) y en los que seas el primer autor (aunque a tu director no le guste, trata de convencerlo). Envía todos tus artículos a servidores de preprints (por ejemplo, ArXiv) el mismo día que los envías a publicación en congresos y/o revistas. Que no te preocupe si te los acepten o no, los preprint sirven para entrenarte y para que tu nombre “suene”. Recuerda que los artículos a congresos son muy poco citados y muy poco leídos, salvo contadas excepciones. Debes enviar artículos a revistas, envía a las mejores que puedas, que en ellas los comentarios de los revisores serán también los mejores posibles y no te preocupes si te los rechazan, acepta los comentarios, reeescribe el artículo y reenvíalo a otra revista más asequible.

Los artículos “Your First “First-Author” Paper: Part One–The Writing,” y “Your First “First-Author” Paper, Part 2–The Act of Submission and Peering at the Review Process,” publicados en Science Magazine, gratuitos como parte de Science Careers) serán de tu seguro interés.

“Para conocer el camino que aún te falta por recorrer, pregúntale a los que ya vienen de vuelta,” proverbio chino.