Siempre se dijo que el desierto del Sahara se “desertizó” bruscamente, sin embargo, recientemente se ha descubierto que no fue así (ya tratamos esto hace poco aquí) y que el proceso duró más de 2000 años. Ahora vuelve a caer otro gran “mito” del cambio climático. Siempre se dijo que la transición entre glaciaciones fue suave y se acaba de descubrir que fue extremadamente brusca. Copio de emulenews en Menéame, “El último estudio científico (revista Science, aceptado pero aún sin publicar) sobre el cambio de la última glaciación en Groenlandia indica que la película “El día de mañana” puede que tenga razón y un cambio de era glaciar se puede producir en tan sólo un año. Sorprendente, ya que nadie podía pensar hace poco que se dieran transiciones tan súbitas. La realidad vuelve a ser más sorprendente que la ficción.” <artículo citado> <más información>

El artículo de J. P. Steffensen et al. (20 autores) “High-Resolution Greenland Ice Core Data Show Abrupt Climate Change Happens in Few Years,” Science, published Online June 19, 2008 , ha estudiado las dos últimas glaciaciones, previas al periodo interglaciar actual, utilizando testigos de hielo de Groenlandia. Sorprendentemente, el contenido de deuterio (hidrógeno pesado) en el agua de las muestras de hielo presenta una transición brusca en un intervalo entre 1 y 3 años, marcando el inicio de una transición algo más gradual (sólo 50 años) en el cambio de las temperaturas del aire ártico. Según los investigadores la transición de temperaturas medias del aire húmedo encima de Groenlandia cambió entre 2 y 4 grados kelvin al año durante esta transición marcando el final de los dos últimos periodos glaciares. ¡Increíble!

Como nos relata Ashley Yeager, “Now that’s abrupt,” Science News, June 19th, 2008 , este estudio demuestra que la transición entre frío y calor en el Atlántico Norte se produjo en sólo 3 años, es decir, el cambio entre el clima típico de Sierra Nevada, Granada, España, y el de la costa malacitana, Málaga, España, se produjo en sólo 4 o 5 años. Los investigadores en cambio climático nunca pensaron que la paleoclimatología hiciera un descubrimiento como éste. En nuestra sociedad moderna los cambios climáticos nos parecen muy suaves y nunca hemos experimentado un cambio tan brusco. Los humanos que vivieron esa época observaron como el viento, la lluvia y las temperaturas durante cada estación cambiaron de un año al siguiente de forma “mágica”. Tuvo que ser un cambio con terribles consecuencias para ellos. Afortunadamente, el humano se adapta fácilmente a los cambios bruscos.

Los investigadores no conocen exactamente la causa de estas transiciones bruscas entre un clima frío y un clima caliente producidas hace 14700 y 11700 años. Sin embargo, los testigos de hielo indican que ambas siguieron un patrón similar (según los isótopos de oxígeno-18 e hidrógeno pesado, deuterio, encontrados en el hielo). Los investigadores sospechan que las latitudes altas del hemisferio sur y los océanos tropicales se calentaron porque decreció la circulación de aire y agua en el Atlántico Norte. Este calentamiento tropical del Hemisferio Sur pudo inducir un desplazamiento hacia el norte del punto en el que se unen las grandes corrientes de viento del Noreste y Sureste. Esto conllevó monsones más intensos en el Pacífico y un clima más húmedo en Asia. De esta forma, menos polvo es levantado hacia la atmósfera y más partículas de polvo son extraídas de ella gracias a la lluvia y depositadas en tierra. De hecho, los testigos de hielo muestran que los niveles de polvo cambiaron bruscamente sobre Groenlandia. Los datos experimentales sugieron que el aire se hizo más caliente y más húmedo, luego más cantidad de nieve cayó sobre Groenlandia, alterando el grosor de su capa de hielo. Por supuesto, por ahora, este escenario es mera especulación y tendrá que ser confirmado por estudios posteriores.

Como se indica en “Ice Cores show abrupt climate changes,” del Niels Borh Institute, de la University of Copenhagen, a la que pertenece el equipo investigador, la capa de hielo en Groenlandia se forma a partir de la nieve que año tras año es retenida y compactada. La capa que se forma cada año nos habla del clima en los años en que cayó dicha nieve. Por ello, el hielo ártico es un testigo fiel del clima del pasado. Los paleoclimatólogos pueden estudiar en él el clima de los últimos 125000 años.

Los investigadores han encontrado que la última era de hielo en el hemisferio norte acabá violentamente con fluctuaciones que consistieron en dos periódos cálidos interrumpidos por sendos periódos fríos. El primer cambio abrupto hacia un clima más cálido se produce hace 14700 años, provocando que la temperatura sobre Groenlandia subiera más de 10 grados. Los humanos de la Edad de Piedra lograron en dicha época “conquistar” Europa del Norte y Escandinavia. Pero no por “mucho” tiempo, ya que la edad de hielo retornó hace unos 12900 años con un nuevo periodo de frío severo que duró hasta hace 11700 años, cuando finalizó de forma increíblemente rápida.

Uno de los éxitos de Google fue el uso de robots de búsqueda automática. Michael Imbeault, canadiense, ha desarrollado un periódico de noticias científicas basado en un robot o buscador automático. Fundamentalmente busca en Google News y en Yahoo News. http://esciencenews.com. Lo lanzó hace un mes y ya tiene 5000 visitas diarias.

Este tipo de buscadores automáticos de noticias no generan nuevas noticias, por lo que han de basarse en quienes de verdad las generan (CNN.com, MSNBC.com), pero de forma automática construyen el titular, ordenan las noticias por importancia y/o interés, clasifican éstas en grupos relacionados (en función de la co-ocurrencia de palabras entre ellas), y usan técnicas estadísiticas BAYESIANAS para asignar los artículos automáticamente a categorías como Astronomía, Salud o Clima. El orden o ranking de las noticias se basa en su fecha, el número de sitios web que las citan, y otros factores relacionados cno su importancia.

Obviamente, Google News y Yahoo News no contienen todas las noticias científicas del mundo, limitándose a sitios tan famosos como Nature News, la sección de ciencia de The New York Times, páginas de noticias de universidades y centros de investigación, como la NASA, etc. Pero Michael Imbeault ha prometido extender estos sitios poco a poco hasta cubrir la “Google-Internet” (la parte de la web alcanzable mediante buscadores).

Imbeault, como no puede ser menos para una “animal” universitario, quiere aplicar técnicas de Web Semántica (Web 3.0) para obtener un mejor significado de los contenidos de los textos de las noticias. ¡Qué tenga suerte!

Permítaseme citar algunos párrafos de “La burbuja del crudo terminará por estallar,” por Carmen Ramos para Mercados, Suplemento Dominical de El Mundo, 22 de junio de 2008 : “La imparable subida del precio del barril de petróleo se traslada a todos los sectores, reduce el poder adquisitivo y genera inflación (…) El incremento de demanda de crudo, por el despertar de las economía asiáticas, ha generado parte del alza de su precio, pero en buena medida se debe a la especulación (…) a diario en el Nymex, el mercado de futuros de la Bolsa de Nueva York, el volumen de barriles negociados es seis veces mayor que el consumo mundial (…) la OPEP, Organización de Países Exportadores de Petróleo, resalta que la oferta de crudo supera en 1,5 millones de barriles a la demanda (…) cada día son más las voces que alertan de una posible burbuja, de un exceso que, como todos, terminará por estallar y el precio caerá en picado.” Las primeras señales de una próxima bajada están ya en las noticias : “China bajará el consumo ya que van a disminuir las subvenciones a la gasolina y el gasóleo (…) Arabia Saudí ha anticipado un incremento de la producción de 200.000 barriles diarios en julio, que se suma al aumento de 300.000 que ha efectuado este mes. Una decisión encaminada a frenar la subida de precios y que, tal vez, se deba al temor a que se esté generando esa burbuja.”

Pero, ¿realmente nos encontramos ante una burbuja especulativa? Sólo los modelos matemáticos de los economistas pueden afirmarlo. Cual Nostradamus o Rapel me he atrevido a realizar una predicción en Menéame: “Confirmado: los precios del petróleo bajaran a partir de julio.” Copio aquí “Economistas especialistas en el modelado de burbujas económicas basadas en la especulación de precios han confirmado, por un lado, que la actual escalada de precios del petróleo (desde 2006) es una burbuja y, por otro, han predicho que el máximo está a punto de ser alcanzado (si no lo ha sido ya). Buenas noticias para todos.” Podéis leer los comentarios, la mayoría criticando mi predicción. Sólo el tiempo lo dirá. Por ahora os comento que “El modelo de los autores ha sido confirmado en las tres últimas burbujas (desde 1996). Por supuesto, “he buscado un titular “políticamente incorrecto”.”

En realidad el modelo matemático de burbujas especulativas no ha sido desarrollado por economistas sino por físicos que se dedican a la sociofísica. El artículo “The 2006-2008 Oil Bubble and Beyond,” D. Sornette, R. Woodard, and W.-X. Zhou, ArXiv preprint, 6 June 2008 , analiza los precios del petróleo en dólares y euros diagnosticando un crecimiento más que exponencial, que los autores achacan a una burbuja especulativa. El modelo de los autores ha sido capaz de predecir “a toro pasado” las 3 burbujas más importantes desde 1996, la burbuja de las .com (punto-com o dot-com) que culminó en el 2000, la burbuja inmobiliaria norteamericana que culminó a mediados de 2006, y el boom de las hipotecas “basura” (subprime) de 2007. Julio de 2008. De hecho la figura 2 del artículo no aclara si es en junio o julio de 2008, casi igualmente probables. Todo depende de exactamente qué mes empezó la burbuja. Lo que es difícil de estimar.

¿Cuándo predice el modelo que la burbuja alcanzará su valor pico y empezará a decrecer el precio del petróleo? Depende de cuándo empezó la burbuja, algo que no es fácil de determinar. La figura 2 del paper sugiere de junio a julio de 2008 , pero no aclara exactamente cuándo. Dado que a principios de junio no se ha producido aún y el precio del crudo sigue creciendo, mi “apuesta” es que a principios de julio próximo, el crudo empezará a decrecer de precio. ¿Cómo será el descenso de precios? Si “acierto”, será “de caerse por un precipicio”. Por el bien de la economía de nuestro país, espero acertar el augurio.

Recientemente he visitado Venezuela, por trabajo, con muy poco tiempo para turismo. Aún así, he podido escaquearme para visitar el teleférico más alto del mundo, construido por la compañía francesa Applevage en 1958 (reconstruido por el gobierno venezolano, Corpoturismo, en 1998 ) sito en Mérida.

Cabinas con capacidad para 40 personas (sólo 10 asientos triples). Nuestro viaje duró 4 horas. En Loma Redonda, tras superar las nubes, empezó a llover, con lo que la vista se vió muy desmejorada. Llegando al Pico Espejo, la lluvia se convirtió en nieve. La mayoría de nuestros compañeros de viaje, venezolanos, estaban alucinando viendo nevar. Especialmente los niños que disfrutaron de la nieve como sólo saben hacerlo los niños. Un termómetro en la última estación decía que estábamos a -3 ºC. En Mérida, antes de partir y tras el regreso, el calor húmedo era sofocante.

Como referencia, os listo las paradas y sus altitudes: Mérida (1640 m.) La Montaña (2436 m.) La Aguada (3452 m.) Loma Redonda (4045 m.) Pico Espejo (4765 m.)

La última estación está a sólo 14 m. de la cima más alta de Europa occidental (Mont Blanc, 4779 m.) y a 242 m. de la cima más alta de Venezuela (Pico Bolívar 5007 m.). Cuando está despejado, arriba, dicen que la vista es espectacular. Cuando nieva, el espectáculo es la nieve. Por supuesto, los que ya la conocemos, disfrutamos de un “gustoso” vino caliente.

El número de junio de la revista Discover, que he adquirido como lectura en mi viaje de retorno desde Venezuela, presenta brevemente una noticia que me ha parecido interesante comentar aquí. La noticia ha tenido cierto éxito en Menéame. “En marzo de 2008, Tsen ha demostrado que los virus del sida se pueden destruir mediante resonancia utilizando láseres a la frecuencia adecuada, igual que una cantante de ópera es capaz de destruir un vaso entonando una nota. Mediante diálisis de la sangre del paciente, se somete ésta al láser, se destruyen los virus, y se reintroduce en el cuerpo del paciente. Quizás en 10 años tengamos un nuevo tratamiento contra el sida.”

El artículo técnico es K. T. Tsen, S.-W. D. Tsen, et al. “Selective inactivation of human immunodeficiency virus with subpicosecond near-infrared laser pulses,” J. Phys.: Condens. Matter, Vol. 20, No. 25, pp. 252205-8, 25 June 2008, donde se demuestra por primera vez cómo el virus del sida (virus de inmunodeficiencia humana o VIH) puede ser inactivado mediante irradiación con pulsos láser de media potencia en el régimen de subpicosegundos y con frecuencia en el infrarrojo cercano. Este tipo de pulsos, en estos primeros estudios, resultan inofensivos para los glóbulos rojos y otras células de la sangre (aunque esto tendrá que confirmarse en futuros estudios). Este descubrimiento puede tener importantes aplicaciones en el desarrollo de técnicas láser para la desinfección de productos e instrumentos clínicos posiblemente infectados con sangre seropositiva o infectada.

En estudios previos, K. T. Tsen, S.-W. D. Tsen, et al. “Inactivation of viruses with a femtosecond laser via impulsive stimulated Raman scattering,” Proc. SPIE, Vol. 6854, 68540N, 2008, los autores presentaron el uso de láseres de femtosegundos en el rango visible y de muy baja potencia para la inactivación (destrucción) de virus como el bacteriófago M13. Usaron para ello luz con longitud de onda de 425 nm. en modo pulsado con pulsos de 100 fs. de anchura, con una potencia igual o mayor de 50 MW/cm². El nombre técnico del procedimiento es Dispersión Raman Estimulada a Pulsos (Impulsive Stimulated Raman Scattering, ISRS). Como la frecuencia de la luz utilizada está en el infrarrojo cercano, se espera que el daño en ácidos nucleicos (ADN o ARN) y aminoácidos (proteínas) sea mínimo.

En el trabajo de inactivación del SIDA se ha utilizado un láser con una longitud de onda de 1.55 µm. en modo pulsado a una tasa de repetición de 500 kHz y pulsos de 5 µJ. que es inyectado en una fibra óptica no lineal que genera segundos armónicos (second harmonic output), es decir, pulsos de frecuencia 776 nm. de unos 1.4 µJ. de potencia con una anchura de 500 fs. Los autores han encontrado que una muestra (in vitro y removida) sometida a estos pulsos láser ultracortos pierde alrededor del 80% de su carga de virus VIH. Obviamente no es suficiente para superar los estándares que requiere una aplicación terapéutica, lo que requerirá varios años de estudio.

¿Cómo se produce la inactivación de los virus gracias al láser? Los autores creen que el láser induce la ruptura de la cápsula proteica (cápside) del virus, que para el virus VIH tiene un diámetro de 0.1 µm. Un glóbulo rojo tiene forma de donut (de agujero relleno) de unos 10 µm. de diámetro y 2 µm. de grosor. Por tanto, es de esperar que el efecto del láser sobre estas células sea mínimo. Algo que habrá que ratificar en estudios posteriores.

Muchos tenemos la experiencia de haber observado cómo se generan formas poligonales cuando se deforma la pared de una botella de plástico ante cargas puntuales. El artículo de Ashkan Vaziri and L. Mahadevan, “Localized and extended deformations of elastic shells,” PNAS, vol. 105, no. 23, pp. 7913-7918, June 10, 2008, presenta un modelo matemático (ecuación) de cómo se realiza este proceso de generación de patrones poligonales. En el artículo se comparan los resultados de simulaciones numéricas con resultados experimentales ante cargas puntuales (aplicar una fuerza de compresión sobre la botella concentrada como la producida cuando se aplica presión con un lápiz puntiagudo, figura A).

Estas formas poligonales son debidas a la respuesta mecánica no lineal de superficies elásticas curvadas cuando se les aplica una fuerza externa localizada. Dependiendo de las curvaturas (geométricas) intrínsecas (locales) de la superficie, se obtienen diferentes formas (patrones) para la superficie deformada. Para superficies con curvatura gaussiana cero o positiva, aparecen estructuras “poligonales” (facetadas) que se organizan en un conjunto de patrones localizados intrincados, presentando transiciones de histéresis entre múltiples estados metaestables. Por el contrario, cuando la curvatura gaussiana es negativa la superficie se deforma de forma no local a lo largo de líneas características que se extienden a lo largo de toda la superficie. Los autores presentan ecuaciones matemáticas y resultados numéricos que permiten entender estos dos tipos de comportamiento, permitiendo clasificarlos en función de ideas geométricas muy sencillas.

La figura A muestra que conforme el desplazamiento de al punta del lápiz que aplica la presión aumenta, la botella primero se “hunde” con una hueco circular, que pierde la simetría local para transformarse en una forma poligonal con 3 vértices (triángulo). Si se sigue aplicando la presión con el lápizse forman polígonos con un mayor número de lados y vértices. Los investigadores han resuelto las ecuaciones en derivadas parciales elípticas no lineales para la deformación de la superficie usando el método de elementos finitos con el programa comercial ABAQUS, partiendo de la geometría de la figura B, obteniendo los resultados numéricos mostrados en la figura C. Suponiendo que el material deformado tiene un grosor t y una curvatura (sin deformar) R, los autores han estudiado el rango 0.0005 < t/R < 0.01. Para el casquete esférico la curvatura gaussiana es positiva.

Como muestra la figura F, el casquete esférico primero se deforma axisimétricamente con un comportamiento lineal entre la fuerza aplicada (F/Et²) y el desplazamiento debido a la presión de la punta normalizado respecto al radio de curvatura (Z/R). Pero cuando la deformación es similar al grosor del casquete, la respuesta se vuelve no lineal. Si se seguimos presionando, aparece una deformación con una forma básicamente circular. Cuando seguimos presionando más, la forma circular pierde estabilidad, produciéndose una transición a un modo asimétrico, que muestra simetría triangular. Si seguimos aplicando la presión se producen sucesivas transiciones bruscas hacia formas con simetría de 4 y 5 lados. Múltiples formas poligonales con un número variable (creciente) de vértices (ver también figura C). Cada transición está marcada por una bifurcación que convierte un vértice en dos. Cuando decrementa la presión de la punta del lápiz, la deformación de la superficie sigue la curva roja en la figura F, es decir, se produce un fenómeno de histéresis (múltiples estados estables cuyo valor depende de cómo son alcanzados).

¿Por qué ocurre esto? Porque las deformaciones casi-inextensibles del casquete son energéticamente preferibles cuando se cambia de número de vértices, ya que se estira la superficie sólo en las cercanías de estos vértices y en las líneas que los conectan y el resto de la superficie permanece en gran parte sin deformar (facetas planas). De esta forma, la superficie se deforma en una pirámide n-gónica con el vértice en el punto en el que presionamos (figura D).

En resumen un artículo muy interesante. El artículo se acompaña de un vídeo en formato .mov, que muestra claramente cómo ciertos vértices individuales se dividen en dos incrementando el número de lados de los polígonos.

U. HEINTZ, “TOP QUARK MASS MEASUREMENTS AT THE TEVATRON,” ArXiv Preprint, 6 June 2008. [emulenews en Menéame] La nueva estimación de la masa del quark cima, 172.6±1.4 GeV, con un error por debajo del 1%, decrece el límite superior (si el Modelo Estándar es correcto) de la masa del Higgs hasta como mucho 160 GeV (al 95% de confianza), resultando 114 < mH < 160 GeV, es decir, entre 121 < mH < 170 veces la masa del protón (0.938 GeV). Son buenas noticias para la búsqueda del Higgs en el LHC. De interés para aficionados a la física. [¡¡noticia en portada de Menéame!!]

El quark top es la partícula elemental de más masa conocida hasta el momento. Los nuevos datos se han obtenido en el Tevatrón, que se encuentra en el Fermilab, a las afueras de Chicago, EEUU, en colisiones protón-antiprotón a la friolera de 1.96 TeV (tera-electrón-voltio). Recuerda que en su arranqeu, el LHC empezará con colisiones similares pero a 2 TeV (aunque la “luminosidad”, la probabilidad de detectar ciertas “cosas”, del LHC es mayor que la del Tevatrón). La idea de que el fin del mundo está próximo es completamente descabellada (en los rayos cósmicos, de hecho, se obtienen energías cientos de veces mayores y “no pasa nada”). Días, horas, y minutos para el arranque del LHC (cuenta atrás para los físicos) [emulenews en Menéame] Relacionada con meneame.net/story/lhc-cern-ya-tiene-fecha-arranque donde se anunciaba que el arranque del LHC ya tiene fecha. Pues bien, aquí tenéis un contador (basado en dicha fecha) para poder publicar en meneame la noticia del encendido del LHC un día antes. Ánimo, a ver quién es el primero. [¡¡otra noticia en portada de Menéame!!]

Lo que NO pasará cuando arranque el LHC del CERN.

El Modelo Estándar de las Partículas Elementales no explica ni la masa, ni la carga, ni la espín, de las partículas elementales conocidas, sino que impone dichos valores a partir de la evidencia experimental. En palabras de Feynman (traducidas) “Aún queda por resolver una característica muy poco satisfactoria (del Modelo Estándar): las masas de las partículas elementales observadas. No se conoce teoría que explique estos números. Los usamos en todos nuestros cálculos, pero no los entendemos (¿por qué tienen los valores que tienen? ¿de dónde vienen estos números?). En mi opinión (la de Feynman) este es uno de los problemas, desde el punto de vista fundamental (teórico), más serios e interesantes.”

La figura de arriba, extraída de un artículo de E.L. Koschmieder, “Theory of the Elementary Particles,” ArXiv Preprint, 2008, que propone una “explicación”, nos indica que la masa de los mesones (partículas formadas por un quark y un anti-quark) estables siguen un comportamiento lineal en función de la masa del mesón estable más ligero (el pión, partícula predicha por Yukawa). Esto ya se sabía de hace años… pero no había una explicación dentro del Modelo Estándar. Koschmieder trata de explicarla de forma no ortodoxa (numerológica) aludiendo a que refleja una teoría subyacente todavía desconocida. Este tipo de trabajos “numerológicos”, normalmente tienen una capacidad predictiva “cuantitativa” muy limitada (dan aproximaciones burdas). Por ejemplo, en la “teoría” de Koschmieder la masa del neutrino electrónico (el más ligero de los 3 neutrinos conocidos) es igual a la masa del neutrino muónico (el segundo por masa) multiplicada por la constante de estructura fina (que indica la “fuerza” de la fuerza electromagnética entre partículas elementales). Como nadie conoce la masa de los neutrinos (se sabe que no es nula, pero no su valor, sólo la diferencia entre masas de los neutrinos se puede estimar teórica y experimentalmente sin una medida directa)… lo dicho, … como nadie la conoce, pues, por ahora, cualquier valor es “bueno”.

La numerología es una de las “ramas” de la Física más denostada y criticada por todos los “científicos de pro”. Aunque hay grandes físicos que han sido grandes defensores de la misma, como el propio P.A.M. Dirac o A.S. Eddington, la opinión estándar es relacionarla con el principio antrópico (defendido por “famosos” de la talla de S.W. Hawking) y concluir que de sus conclusiones aproximadas no se obtiene ciencia “verdadera”. De todas formas, recordad la importancia que tuvo darse cuenta de que el protón y el neutrón (aparentemente tan distintos) eran la “misma” cosa (hoy en día, le llamamos nucleón), que introdujo el espín isotópico y con él gran parte de la moderna teoría cuántica de campos aplicada a partículas elementales (sustento del Modelo Estándar).

En esta línea, acaba de aparecer el artículo de T. A. Mir, G. N. Shah, “Order in the mass spectrum of elementary particles,” ArXiv preprint, que propone explicar la figura de arriba usando como parámetro la diferencia de masa entre el pión (hadrón tipo mesón) y el muón (leptón, tipo de electrón de mayor masa). Este nuevo artículo alude a que dicha diferencia (29.318 MeV) es una “unidad fundamental” de masa. De curiosidades “numerológicas”, la vida está llena.

La numerología siempre me recuerda a la famosa “estética” de la proporción del número phi o número dorado o número mágico o phi = (1+raizcuadrada(5))/2 y a la aparición de los números de Fibonacci en biología. Cuando lees ciertas páginas web y artículos de divulgación parece que es completamente “verdad” que estos números aparecen por doquier (verdad numerológica). ¿Realmente aparecen los números de Fibonacci en la distribución de pétalos en las flores? Dedicaremos uan futura entrada de este blog a este “peliagudo” tema. Sólo quiero adelantar, que científicamente no es así. Hay flores de ciertas especies de plantas que sí siguen una distribución de este tipo, pero la gran mayoría no. Estadísticamente, es mera casualidad. Pero y lo que bonito que queda deshojar (“despetalear”) una margarita (que sí, que no, que sí, que no, …) si uno no sabe cuántos pétalos tiene. De la especia más común en España, hay flores con n (no digo cuántos ni si es par o impar) pétalos, pero que excepcionalmente también presentan n+1 o n-1 pétalos (con menor probabilidad pero nada despreciable). ¿Tienes alguna margarita a mano?

Para saber más (todo un clásico): G. J. Mitchison, “Phyllotaxis and the Fibonacci Series,” Science, 196: 270-275, 15 April 1977. Y un libro curioso, Mario Livio, “The Golden Ratio. The Story of Phi, the World’s Most Astonishing Number,Broadway Books, New York, 2002, que está traducido al español “La proporción aúrea,” 3ra. ed., Ariel, 2006.

Demostraciones tan importantes como la reciente demostración de la conjetura de Poincaré por Grisha Perelman (o hace unos años la demostración de Wiles del, así llamado, último teorema de Fermat) siempre se encuentran con el mismo hándicap: ¿para qué sirven? Por supuesto que son grandes avances de la Matemática, pero para la mayoría de nosotros, la cuestión que resuena en nuestras mentes es ¿para qué sirven? ¡Tantos años para una demostración que te haga famoso! Obvia al “demostrador” le son muy útiles (medallas Fields y otros premios importantes), sobre todo para pasar a la Historia de esta Magna disciplina.

La respuesta es muy simple. Tras la demostración, ciertas técnicas sólo del dominio de unos pocos matemáticos en el mundo se vuelven famosas, populares y MILES de otros matemáticos las estudian (por su fama, ya que en otro caso nunca lo hubieran hecho sólo por su importancia). Son estos otros matemáticos, siempre en el anonimato (para los grandes mass media), los que responden a la pregunta, encontrando múltiples problemas que se resuelven con las técnicas utilizadas en la demostración original. Seguramente ya sabrás que las técnicas de curvas elípticas racionales y modulares usadas por Wiles se utilizan en criptografía (cifrado de datos). ¿Para qué sirve la técnica de flujos de Ricci desarrollada por Perelman? Acaba de aparecer una aplicación al cáncer, al modelado del crecimiento de tumores: Tijana T. Ivancevic, Vladimir G. Ivancevic, “Ricci Flow Model for Avascular Tumor Decay Control,” ArXiv preprint, 5 June 2008 .

El artículo propone el uso de un modelo basado en el flujo de Ricci para el control de la formación de tumores multicelulares no irrigados (avasculares). Este modelo predictivo puede permitir un mejor control del proceso de proliferación celular en el cáncer, control que podrás ser interferido con medicamentes y, por tanto, con múltiples aplicaciones médicas. En concreto, los autores proponen una terapia basada en anticuerpos monoclonales (obviamente, todavía sólo una idea).

El desarrollo de tumores pasa por 3 etapas distintas, la avascular, la vascular y la metastática. Muchos tumores, en su primera etapa de desarrollo, en laboratorio (in vitro), forman agregados multicelulares esféricos 3-dimensionales, MTS, como el de la figura (fotografiado al microscopio, exhibiendo un extenso sistema de ramas, que en el medio celular in vivo se ramificarían en los tejidos vecinos al tumor).

(c) Guiot et al. Theoretical Biology and Medical Modelling 2007 4:4

Los autores proponen aplicar las técnicas matemáticas geométricas de flujo de Ricci desarrolladas por Hamilton y Perelmal para la demostración de la conjetura de Poincaré para el análisis de las ecuaciones de reacción-difusión que modelan la formación y crecimiento de las MTS, previamente desarrolladas en T. Roose, S.J. Chapman, P.K. Maini, “Mathematical Models of Avascular Tumor Growth,” SIAM Review, 49(2), 179-208, 2007 (gratis). Sin entrar en detalles técnicos, lo más interesante es el uso que hacen de la entropía de Perelman para el flujo de Ricci que aplican al análisis termodinámico de la ecuación del calor en el modelo de MTS. Para mí es curioso que la idea de Perelman de llamar a su funcional no decreciente como entropía acabe resultando en que “realmente” es la entropía de algo.

En resumen, para los matemáticos un artículo que merece la pena leer. Para los demás, espero que les haya dejado un “buen sabor de boca” saber que la Demostración de Poincaré sirve para algo tan importante como ayudar en el tratamiento de “lo común” en las más de 150 enfermedades que metemos en el “paraguas” del cáncer (que en 2007 mató a más de 7.6 millones de personas en todo el mundo).

Para saber más:

R. Álvarez-Nodarse, “Modelos matemáticos en biología: un viaje de ida y vuelta,” Bol. Soc. Esp. Mat. Apl., 1-40, preprint. Fácil de leer y comenta el modelado de crecimiento de tumores.

Claes Johnson, tan friki e iconoclasta como siempre, junto a Johan Hoffman y colaboradores son los artífices del proyecto “Applied Mathematics: Body & Soul,” un programa para la reforma de la Educación Matemática. Uno de cuyos resultados es la publicación de una serie de libros con su novedoso enfoque. Empezaron con “Computational Differential Equations,” anunciando su versión “Advanced Computational Differential Equations,” que nunca vio la luz, yo llegué a encargarla en una librería, esperándola durante cerca de un año, para finalmente anular el pedido, sin que nadie supiera si se iba o no a publicar. Han publicado en su lugar 4 volúmenes como parte de la serie “Body and Soul“.

¿Por qué se han embarcado en tan osada contienda? Por supuesto porque son unos frikis. Pero también por razones “varias” que exponen en su libro “Dreams of Calculus – Perspectives on Mathematics Education.” Un estudio del Ministerio de Educación Sueco publicó el 28 de mayo de 2004 un informe sobre la situación actual de la enseñanza de las matemáticas en Suecia y sobre la posibilidad de cambiar los programas de estudio. El informe fue escrito por más de 100 personas, pero sólo 1 profesor de matemáticas, y en particular ningún experto en matemática aplicada o computacional. Los resultados del informe fueron claros: (1) No hay ninguna crisis en la educación matemática hoy en día. (2) No hay necesidad de cambiar la eduación matemática debido a la existencia de los ordenadores. Obviamente, Johnson y colaboradores no estaban de acuerdo. El proyecto “Body & Soul” ha surgido porque: [1] Hay una “crisis” en la educación matemática. [2] El ordenador exige un cambio sustancial en cómo se enseña matemática. La aproximación del proyecto es la siguiente: el sistema educativo actual asume que la educación se basa en la ciencia, mejor aún, la educación actual debe basarse en la ciencia contemporánea. Un ejemplo, en un segundo curso de ingeniería, en una asignatura de matemáticas, ¿por qué no hablarle a los alumnos de la ciencia de la turbulencia? ¿Por qué no mencionar que es uno de los premios Clay? ¿Por qué no contar “brevemente” las técnicas que se están usando para resolver este problema? ¿Por qué no contarle al alumno lo que ha pasado en los últimos 10 años en la ingeniería, en lugar de contarle lo que pasó hace más de un siglo?.

¡¡Se dice fácil!! ¿Pero qué profesor tiene el nivel para hacerlo?

De buenos propósitos está lleno el mundo.

Un problema: ¿Cuál es la diferencia entre las dos afirmaciones siguientes?

En la línea de Johnson, también se encuentra el reciente libro de (un genio) Hairer, “L’analyse au fil de l’histoire,” con su “eterno” colaborador Wanner (en inglés aparecerá este año, en julio, “Analysis by Its History“). Uno de esos pocos libros que, tras su lectura, a uno le gustaría traducir al español (aviso a navegantes “con 2 c…”).