Me molestaba la poca anchura que tenía para introducir figuras y envidiaba la que mostraba el blog de Carlos “La Singularidad Desnuda” (blog que recomiendo a todos). Su letra (font) es más pequeña pero queda como más libro. Así que “le robo la idea” y he puesto mi blog con su formato.

Espero que ello suponga una mejora, al menos no tendré que preocuparme de “achicar” los dibujos para que cupieran en el espacio visible.

http://www.ucolick.org/~smeschia/img/out.gif

La formación de estrellas a partir de discos protoestelares es un tema muy interesante que siempre viene acompoñado de bonitas imágenes. Así nos lo muestra OKLO en su blog (Disks 2, secuela, mucho mejor, de Disks). Lo parafraseo un poco…

Una de las cuestiones más importantes en la dinámica de discos protoestelares es ¿cuándo un disco es suficientemente masivo para desarrollar inestabilidades espirales? Stefano Meschiari ha estudiado este fenómeno recientemente. Ha descubierto que si el disco presenta un pequeño “agujero” es mucho más probable que desarrolle inestabilidades espirales. Estos agujeros aparecen cuando se forman planetas en el disco. Estas inestabilidades son importantes para comprender cómo se forman los planetas gigantes gaseosos y cómo influyen en la dinámica de los discos protoestelares. El artículo técnico es Stefano Meschiari, Gregory Laughlin, “The potential impact of groove modes on Type II planetary migration,” preprint aceptado en Astrophysical Journal Letters.

La página web de Stefano merece la pena ser visitada (http://www.ucolick.org/~smeschia/disks.php) ya que explica muy bien (y con bonitos videos) su investigación. Estoy de acuerdo con OKLO, quien destaca la solución gráfica de el problema de autovalores generalizado que resuelve una ecuación integro-diferencial que surge de estudiar la estabilidad lineal de pequeñas perturbaciones en la hidrodinámica del disco como uno de los “logros” más llamativos de la web.

Caso de que el bosón de Higgs sea descubierto en el LHC (del CERN) a finales de este año, ¿cómo será observado? La respuesta la tiene el mecanismo “exacto” de la ruptura de simetría electrodébil en el Modelo Estándar de partícula elementales. Créetelo, ¡¡ los físicos no tienen ni idea !! Una de las “funciones” más importantes del LHC será aclarar este mecanismo. Preguntas como ¿existen los bosones de Higgs? ¿qué masa tienen? ¿cuántos bosones de Higgs hay? tendrá una respuesta próximamente.

Se acaba de publicar un artículo “resumen” de lo que sabe sobre el Higgs (lo confieso, no me lo he leído entero, demasiado técnico para mí): Abdelhak Djouadi, “The anatomy of electroweak symmetry breaking. Tome I: The Higgs boson in the Standard Model,” Physics Reports 457: 1-216 (2008). Si os atrevéis a leeros el paper … http://arxiv.org/abs/hep-ph/0503172

La observación del Higgs será a base de observar los “residuos” de sus decaimientos. Las desintegraciones más probables dependen de su masa. Las más importantes son las que aparecen en la siguiente figura sacada del anterior artículo (obtenida mediante simulaciones numéricas del Modelo Estándar utilizando el programa FORTRAN: HDECAY).

El eje de las ordenadas (vertical) muestra la sección eficaz de la desintegración (más o menos, la probabilidad de que se produzca dicha desintegración y sea observada) y el eje de las abcisas (horizontal) muestra la masa en reposo de la partícula de Higgs en GeV (giga (miles de millones) de electrón voltio, recuerda que un electrón tiene una masa de 0.51 MeV = 0.00051 GeV y que un protón tiene 938 MeV = 0.938 GeV, es decir, más o menos 1 GeV es la masa de 1 protón).

Consideremos tres regiones de posibles masas: (1) masa “baja”, entre 110-130 GeV, (2) masa “intermedia”, entre 130-180 GeV, y (3) masa “alta” entre 180-1000 GeV.

(1) Masa “baja”, entre 100-130 GeV, el modo principal de desintegración del Higgs es en un mesón formado por un quark b (bottom) y un antiquark b (anti-bottom), con un probabilidad del orden del 75%. Los demás modos de desintegración tienen probabilidades inferiores al 10%. Es interesante la desintegración en un par de gluones (partículas portadores de la fuerza nuclear fuerte que unen a los quarks entre sí) con una probabilidad del 7% para una masa de 120 GeV.

(2) Masa “intermedia”, entre 130-180 GeV, los dos modos principales de desintegración son en un par de bosones vectoriales W o un par de Z (bosones portadores de la fuerza nuclear débil, responsables por ejemplo de la desintegración beta de un neutrón, la radioactividad beta, que produce un antineutrino). La desintegración en dos W tiene una probabilidad cercana al 100%.

(3) Masa “alta”, mayor de 2 veces la masa del bosón vectorial Z: 2/3 de las veces, el Higgs se desintegra en dos W, y 1/3 en dos Z; para masas superiores a 350 GeV se abre el canal de la desintegración en un mesón con quark top y antiquark top, aunque con probabilidad pequeña.

Pero, para observar la desintegración de Higgs, primero hay que producirlo. ¿Cómo se pueden producir Higgs en el futuro LHC? En él se harán colisionar dos nucleones (un par de protones, colisión pp) que tendrán que producir el Higgs y algo más (la X en la figura). La figura de arriba muestra las secciones efectivas de producción de Higgs en el LHC a máximo rendimiento (cuando en los choques de protón-protón se involucren 14 TeV, tera o billón de electrón voltios). Se han utilizado varios programas Fortran, como NLO, V2HV, HIGLU, etc. (todos de dominio público, por cierto).

Lo más probable es que se produzca un Higgs en la colisión entre dos gluones fuertemente energéticos seguida por la producción de un Higgs y un par de quarks. Como se observa en la figura, todas las curvas decrecen conformen aumenta la masa del Higgs, con lo que la probabilidad de que el LHC lo encuentre disminuye conforme la masa de éste aumenta.

En el rango de masas favorecido por los datos de precisión obtenidos en el LEP2 en el CERN, rango de 100-250 GeV, grosso modo, el proceso dominante de producción del Higgs es la fusión de dos gluones. Para las luminosidades esperadas en el LHC este proceso permitirá obtener un gran número de Higgs, se espera así al menos.

La figura de arriba muestra las secciones de producción de Higgs en colisiones protón-antiprotón como las que se observarán en el Tevatrón (se ha considerado su estado dentro de un par de años, cuando alcance los 2 TeV de energía en el centro de masa de la colisión). El mecanismo más relevante asociado a la producción del Higgs es su producción acompañada de un bosón Z, 1.5 veces más probable que acompañado de un W (para una masa del Higgs de 250 GeV). Nótese que la curva discontinua azul, desintegración acompañada de neutrinos, será de difícil observación en la práctica.

En las figuras de arriba se han realizado los cálculos suponiendo la operación del LHC y del Tevatrón a luminosidad máxima (es decir, cuando el número de partículas por unidad de área y de tiempo del detector y por la opacidad del detector es máxima). Este parámetro depende de la calidad del diseño de los detectores en un acelerador de partículas.

Muchachos del LHC (no corran tanto por los pasillos con temor a que pase “algo” cuando lo arranquen),

¡¡ Suerte muchachos !!

Interesante artículo de Silvia Nasar sobre la demostración de la conjetura de Poincaré.

http://www.nieuwarchief.nl/serie5/deel08/mrt2007/nasar.pdf

¿Reconoces a los fotografiados? ¡¡ A ver quién conoce los nombres de todos !!

Si alguna vez quisiste demostrar la conjetura de Poincaré… deberías.

Quizás te interese ojear las conferencias en Málaga del año pasado de Rafael Miranda y Francisco Villatoro sobre la demostración de la Conjetura de Poincaré.

http://www.youtube.com/watch?v=Za2dToUKxy0

En la página de Pedro Reina tienes un código que automáticamente resuelve los problemas de números y letras del programa (más de 15 años en antena) de “Cifras y Letras” (si quieres en vivo y en directo, para que no tengas el problema de Jose Mari Aznar al ver el video de arriba).

La explicación del funcionamiento del código nos muestra que es extremadamente simple, pero efectivo, rayando la búsqueda sistemática. En el último número de Investigación y Ciencia (abril 2008), Parrondo, especialista en paradojas en teoría de juegos, que le han hecho famoso (como en su momento lo hicieron con Nash, el de la peli “Una mente maravillosa”), en la sección “Juegos Matemáticos” dedica el número a una explicación (muy buena) de los algoritmos de Reina. Los que estáis suscritos que la disfrutéis.

Traducción libre de “PHYSICS NEWS UPDATE”, The American Institute of Physics Bulletin of Physics News, Number 861, April 15, 2008, www.aip.org/pnu by Phillip F. Schewe and Jason S. Bardi.

ENCONTRAR EL BOSÓN DE HIGGS es el problema más importante a resolver en los dos aceleradores de partículas más grandes que nunca se han construido: el Tevatrón del Fermilab (EEUU), que ahora está alcanzando sus picos de energía tras décadas de funcionamiento, y el LHC (Gran Colisionador de Hadrones) en el CERN (Europa), donde en los próximos meses se harán circular haces de protones (núcleos de hidrógeno) y antiprotones (sus antipartículas) en un túnel de 27 km de longitud. La partítula de Higgs todavía no ha sido encontrada, pero en la conferencia de la Sociedad de Física Americana (APS), esta semana, en St. Louis, docenas de charlas se han referido al estatus actual de la búsqueda del Higgs.

¿Por qué el Higgs es tan importante? Porque se supone que domina el vacío en el universo; no como el antiguo éter, sustrato material para la propagación de ondas electromagnéticas, sino para interactuar con otras partículas y dotarlas de masa (en reposo) no nula. El campo del Higgs normalmente está oculto en el propio vacío, pero si acumulamos suficiente energía en un volumen de espacio minúsculo, como en el punto en el que dos haces de partículas muy energéticas colisionan, entonces el Higgs aparece como una partícula “real” masiva cuya existencia puede ser detectada.

Los cálculos teóricos usando el Modelo Estándar de la Física de Partículas combinadas con cotas obtenidas de experimentos desarrollados en el pasado nos permiten limitar el rango de masas en reposo de la partícula de Higgs. Ahora mismo sabemos que su masa en reposo debe ser mayor que 114 GeV, pero menor que unos 190 GeV. El Tevatrón del Fermilab genera energía más que suficiente para crear una partícula con ese rango de masas. El mayor problema es su luminosidad, o la densidad de partículas en el haz que se hacen colisionar juntas por segundo. El Tevatrón recientemente ha alcanzada su récord de luminosidad: 3.1 x 10^32 por cm^2 por segundo.

¿Cómo veríamos un bosón de Higgs en el Tevatrón? Brian Winer (de la Universidad del Estado de Ohio) dice que “el evento más parecido a un evento tipo Higgs” visto hasta el momento en las colisiones protón-antiprotón en el Tevatrón ha creado una bola de fuego (fireball) que ha decaído en un bosón W (uno de los portadores de la fuerza nuclear débil) y una partícula de Higgs. Pero esta última ha decaído tan rápidamente en un par quark-antiquark (en concreto, bottom-antibottom) con una masa combinada superior a 120 GeV. Como tal, dicho evento no constituye un descubrimiento. Hay eventos de “fondo” que se parecen al resultado de observar un Higgs. Una observación “de verdad” del Higgs requiere eventos candidatos sustancialmetne mayores que el número de eventos de “fondo” esperados. Quizás con el tiempo (e incrementos en la luminosidad) el Tevatrón podrá acumular suficientes eventos candidatos a Higgs como para establecer un “descubrimiento” estadísticamente satisfactorio. Un físico del Tevatrón, Dmitri Denisov (denisovd@fnal.gov) resume el estado actual de los experimentos asociados a los detectores CDF y D0, e indica que se espera que para el año 2010, con una luminosidad posiblemente del doble de la actual y con un número de eventos unas 4 u 8 veces mayor, el Higgs sea “descubierto” en el Tevatrón.

Pero quizás se adelanten en el CERN. A las energías de las colisiones de haces protón-antiprotón en el LHC, el Higgs, si existe, será observado abundantemente. Abraham Seiden (abs@scipp.ucsc.edu) de la Universidad de California en Santa Cruz, resumió el estado actual del LHC. Los ingenieros y científicos del CERN están ajustando los imanes que garantizan que los protones sigan la trayectoria correcta que deberán funcionar a temperaturas próximas al cero absoluto, necesarias para que operen como superconductores. Aunque el LHC está diseñado para alcanzar energías de hasta 7 TeV, será “encendido” a “solamente” unos 5 TeV. Seiden indica que está planificado que para mediados de junio se enfrien los imanes superconductores y esté lista para que los haces de protones empiecen a circular por el anillo. Para agosto próximo se espera que se produzcan las primeras colisiones y “todo” comience … y la historia del Higgs se reescriba … Sin embargo, varios científicos en la Conferencia de la APS estaban un poco excépticos sobre esta fecha cuando fueron preguntados en privado. Agosto es la fecha de los optimistas. Los pesimistas lo retrasan a finales de este año.

El escenario de posibles descubrimientos en el LHC esperado para los próximos años, dice Seiden, más allá del Higgs, hace posible que la primera partícula supersimétrica (la de menor masa en reposo de una gran familia de partículas hipóteticas parejas de las que conocemos) puede ser detectada como pronto en 2009 antes de la confirmación última del Higgs que deberá esperar a 2010.

La carrera de la búsqueda del Higgs está en la línea de salida y sólo ganará el que tenga más “suerte”, ya que tanto Tevatrón como LHC esperan tener un descubrimiento “confirmado” en 2010. ¿Quién ganará? Se admiten apuestas.

XI ciclo de conferencias presente y futuro de la ciencia y la tecnología

Centro de Arte Contemporáneo de Málaga

15 abril de 2008. 19:30 horas QUIMERAS: DEL MITO A LA CIENCIA.

Dr. Miguel Ángel Medina, Profesor Titular de Bioquímica y Biología Molecular de la UMA.

Para ir abriendo boca, permitidme copiar aquí dos artículos de Miguel Ángel, gran divulgador de la ciencia, de “su” ciencia. Os gustarán.

Hay uniones que matan… (Historias de CREB)

Miguel Angel Medina Torres

Los seres vivos son sistemas termodinámicamente abiertos en continuo intercambio de materia, energía e información con el medio. Una manifestación de los flujos de información dentro de la célula y entre ésta y su entorno es la que constituyen los mecanismos de «transducción» de señales, en los que participan primeros y segundos mensajeros y máquinas moleculares que «transducen» señales, de acuerdo con la terminología introducida por Bourne [Symposia in Quantitative Biology 58:1019-1031 (1988)]. Los primeros mensajeros son la señales (físicas o químicas) extracelulares que inducen alguna(s) respuesta(s) en la célula diana; así definidos, pueden incluirse en la lista de primeros mensajeros las hormonas, factores de crecimiento, neurotransmisores, citoquinas o quimioquinas, pero también la luz o cualquier tipo de estrés mecánico o térmico. Las máquinas moleculares que «transducen» señales son proteínas que funcionan como receptores, proteínas G, enzimas productoras o eliminadoras de segundos mensajeros, proteínquinasas, fosfoproteínfosfatasas y factores de transcripción. Los segundos mensajeros son biomoléculas pequeñas e iones cuyas concentraciones cambian como respuesta a un estímulo y dan lugar a la transmisión en cascada de una señal hasta generar algún tipo de respuesta final. Son segundos mensajeros los iones calcio y los protones, los nucleótidos cíclicos y una larga serie de compuestos lipídicos derivados de los fosfolípidos de membranas. El primer compuesto descrito como segundo mensajero fue el cAMP, gracias a los trabajos pioneros de Sutherland en los años cincuenta. Este autor estaba interesado en estudiar cómo la adrenalina estimula los hepatocitos para que liberen glucosa. Sutherland pudo demostrar que, entre la unión de la hormona a su receptor y la posterior liberación de glucosa, se dan varios pasos intermedios que implican el control del metabolismo del glucógeno mediante reacciones de fosforilacióndesfosforilación y que las fosforilaciones son estimuladas por una pequeña molécula que, posteriormente, pudo ser identificada como el cAMP. Actualmente, se sabe que el cAMP se forma por acción de una cascada de transmisión de señales que implica a las proteínas G heterotriméricas [ver Encuentros en la Biología 18 (1994)]. El cAMP activa una quinasa multifuncional, denominada proteínquinasa A (PK-A), que consta de dos subunidades reguladoras (R) y dos catalíticas (C). En ausencia de cAMP, la PK-A se encuentra formando el heterocomplejo R2C2, que es inactivo. Cuando se forma cAMP, se liga a las subunidades reguladoras, induciendo un cambio conformacional que libera las subunidades catalíticas activas. El cAMP también induce efectos a más largo plazo mediante la activación transcripcional de diversos genes. En los eucariotas «superiores», los efectos del cAMP sobre la transcripción están mediados por proteínas que contienen dominios en cremallera de leucina. Los genes controlables transcripcionalmente por cAMP contienen un motivo consenso palindrómico 5′-TGACGTCA-3′, conocido como elemento de respuesta al cAMP (CRE). La proteína que se une a esta secuencia diana es el homodímero CREB, formado por dos cadena idénticas de 43 kDa. El extremo carboxilo de CREB contiene una cremallera de leucina que es necesaria para la dimerización y la unión a la secuencia CRE, activando la transcripción del gen diana. Además, CREB tiene un dominio de transactivación que contiene varias regiones independientes, incluída la que se ha identificado como «dominio inducible por quinasas», el cual contiene sitios de fosforilación consenso para varias quinasas, incluida PK-A. De hecho, un mecanismo de la activación transcripcional por CREB es la fosforilación de su residuo Ser-133 por la subunidad catalítica de PK-A. CREB también puede ser fosforilada por otras serina/treoninaquinasas, tales como las PK-C, las quinasas dependientes de calcio y calmodulina CaMK-I, CaMK-II y CaMK-IV, la p105 quinasa dependiente de ras, p90rsk y Rsk-2. Las fosforilaciones de CREB alteran la conformación de su dominio de transactivación, incrementando así su interacción con la maquinaria transcripcional. Es bien conocida la participación de CREB en la regulación hormonal del metabolismo glucídico. En concreto, como respuesta al primer mensajero glucagón se activa una cadena de «transducción» de señales en los hepatocitos que conduce a la activación transcripcional por CREB del gen que codifica la fosfoenolpiruvato carboxiquinasa, una de las enzimas reguladoras de la gluconeogénesis. Recientemente, se ha demostrado que la expresión de CREB se relaciona directamente con el potencial metastásico de melanomas murinos. De hecho, la sobreexpresión de una CREB mutada en su dominio de unión a CRE en células de melanoma metastásico consiguió disminuir su tumorigenicidad y su potencial metastásico en ratones atímicos desnudos [Xie et al., Oncogene 15:2069-2075 (1997)]. En conclusión, la unión de CREB a regiones CRE del DNA es un evento clave en la regulación transcripcional de diversos genes implicados en importantes procesos, aunque hay activaciones transcripcionales nada deseables, como es el caso descrito para los melanomas murinos. ¡Y es que hay uniones que matan!

Miguel Angel Medina Torres es Profesor Titular de Bioquímica en la Universidad de Málaga

UN PUNTO DE VISTA ALTERNATIVO SOBRE EL ORIGEN DE LA VIDA Y LA EVOLUCIÓN

Miguel Ángel Medina Torres

“Todo lo que existe en el Universo es fruto del azar y de la necesidad”. Esta frase atribuida al atomista griego Demócrito y rescatada y hecha célebre por el eminente biólogo francés Jacques Monod destaca los polos entre los que se ha movido toda la investigación biológica y, en concreto, la búsqueda de una respuesta al “misterio” primordial, el del origen de la vida. Las argumentaciones precientíficas dominantes hasta el siglo pasado, preñadas de prejuicios resultantes de la intromisión de la religión en el campo de la ciencia, mostraban un mundo estático en el que los seres vivos fueron creados tal como son hoy por un Sumo Hacedor, el Gran Arquitecto del Cosmos. En la segunda mitad del siglo XIX se produjeron diversas revoluciones científicas que dieron al traste con esta visión estática del mundo. El mundo empezó a ser entendido como algo cambiante, en permanente evolución. La Termodinámica mostró de forma precisa una dirección concreta de la evolución del Universo: aquella en la que aumentase continuamente la entropía. Darwin, uno de los más grandes pensadores de la humanidad, sentó las bases de las modernas teorías de la evolución de la vida señalando la selección como el motor del cambio. Uno de los fundadores de la mecánica cuántica, Erwin Schrödinger, remarcó como característica de la vida que se encontrara en un estado especial de orden tal que -en apariencia- pareciera contradecir el Segundo Principio de la Termodinámica. Tiempo después, el propio Monod señaló que este particular orden característico del mundo vivo no puede tener otra fuente que el mero azar, un azar capturado en el viento. Aunque la pregunta sobre el origen de la vida dista mucho de estar contestada, actualmente una abrumadora mayoría de biólogos es partidaria de la opinión según la cual la vida surgió como la afortunada combinación de múltiples sucesos aleatorios, cada cual extremadamente improbable, y que surgió como algo simple que devino progresivamente en más complejo con la intervención de la selección como motor del cambio. Esta idea, con ser la canónica, presenta un punto sumamente débil: Como muestra gráficamente Robert Shapiro en su interesante libro “Origins” (del que existe una traducción al español en la Biblioteca Científica Salvat), si la vida hubiera surgido como resultado del puro azar, resultaría fácil argumentar basándose en las más elementales reglas de la Teoría de Probabilidades que se habría necesitado un tiempo muchísimo mayor que la edad del Universo. Nosotros, los seres vivos, seríamos los muy afortunados, más bien los imposibles, pues la probabilidad matemática de que hubiéramos aparecido se reduciría prácticamente a la nada. Sin duda, maravilla el hecho de que los seres vivos estén compuestos por elementos no vivos. Los orgánulos, macromoléculas, iones y moléculas pequeñas que constituyen cualquier célula viva aisladamente no están vivos. La vida surge, pues, como una propiedad emergente, sin que esto tenga nada de mágico o místico. No hay que recurrir a ninguna fuerza vital, no hace falta desempolvar la vieja idea del élan vital propuesta por el filósofo Bergson. En los últimos años, frente a la ortodoxia vigente en el pensamiento científico, empiezan a oirse voces heterodoxas que propugnan caminos alternativos en la búsqueda de respuestas a los misterios de la vida. Frente a la idea de que la vida surgió por azar y es, por tanto, altamente improbable, algunos prestigiosos científicos propugnan que la vida tuvo que surgir necesariamente en nuestro Universo. Dos libros publicados en 1995, ambos entre el ensayo científico y la divulgación, ambos escritos por investigadores de primera línea, presentan la idea de la “inevitabilidad” de la vida, aunque lo hacen desde postulados bien distintos. El primero de estos libros es “Vital Dust: Life as a Cosmic Imperative“, escrito por el biólogo Christian de Duve (Premio Nobel de Medicina y Fisiología, compartido en 1974 con Albert Claude y George Palade), quien ya nos obsequiara años atrás con esas dos joyas que son “The Alive Cell” y “Blueprint for a Cell“. Pero el objeto principal de los comentarios que constituyen el presente artículo es el libro “At Home in the Universe“, escrito por el biólogo teórico Stuart Kauffman, una de las más conocidas “cabezas pensantes” del célebre Instituto de Santa Fe. Kauffman lleva cerca de treinta años trabajando en redes booleanas y es (junto con otros colaboradores del Instituto de Santa Fe, como Murray Gell-Mann, Chris Langton o Per Bak) corresponsable del surgimiento de lo que ha venido en denominarse Teoría de la Complejidad. Entre las teorías sobre el origen de la vida, actualmente la dominante es aquella que considera que las primeras formas de proto-vida estarían constituidas por una maquinaria autoreplicante de RNA. El descubrimiento hace una decena de años por el grupo de Thomas Cech de que existen secuencias de RNA que pueden catalizar reacciones enzimáticas dio un fortísimo soporte a los partidarios del mundo del RNA. Por supuesto que la replicación de las moléculas de RNA requeriría la existencia de una actividad RNA polimerasa. Dado un aporte de nucleótidos libres, una ribozima capaz de funcionar como polimerasa constituiría por sí misma un gen replicante desnudo. Pero tal molécula ¿podría mantenerse frente a la degradación mutacional? ¿y podría evolucionar? La respuesta a ambas preguntas es muy probablemente negativa, ya que sería prácticamente inevitable lo que Leslie Orgel ha denominado una catástrofe causada por errores. Esta objeción es aplicable a otros modelos alternativos basados en la suposición de que la vida surgió simple. Para Kauffman, éste es el mayor error de las posturas ortodoxas en las teorías del origen de la vida. Pocos científicos caen en la cuenta de que la vida existe entre unos determinados límites de complejidad; en concreto, existe una complejidad mínima por debajo de la cual no puede darse el fenómeno vital. El genoma del ser vivo más simple conocido consta de varios cientos de genes. Este umbral inferior para la emergencia de la vida, sostiene Kauffman, no es casual sino que es inherente a la propia naturaleza de la vida. El modelo estándar del mundo del RNA no da cuenta de este hecho, por lo que se haría inevitable construir un modelo alternativo. El modelo alternativo y heterodoxo que propone Kauffman sugiere que la vida no surgió simple sino compleja y completa. Las raíces del “secreto de la vida” serían más profundas que el hermoso modelo de Watson y Crick y estarían basadas en la Química. El postulado de este modelo alternativo es que la vida surge como una transición de fases natural en sistemas químicos complejos. [En este punto, entre paréntesis, debo mencionar que en el libro de Kauffman echo en falta una mención explícita a los antecedentes de esta teoría. Pareciera que el autor estuviese señalando que la misma es obra exclusiva de él. Desde mi punto de vista, nada más alejado de la verdad. La noción esencial de la vida como transición de fases queda recogida en la Sinergética de Hermann Haken y los modelos dinámicos evolutivos que mencionaremos más adelante encuentran su correlato en el modelo de los hiperciclos y las cuasiespecies del biofísico Manfred Eigen, premio Nobel de Química en 1967]. Desde un punto de vista químico, un ser vivo es un sistema de componentes químicos que tienen la capacidad de catalizar su propia reproducción, esto es, un sistema colectivamente autocatalítico. Basado en su amplia experiencia sobre el funcionamiento de las redes booleanas, Kauffman llega a lo que denomina idea central de esta teoría holista: La emergencia de conjuntos autocatalíticos es casi inevitable, la vida “cristaliza” espontáneamente y lo hace no por acción de ninguna “fuerza” misteriosa sino por imposición de una simple necesidad matemática. Desde este punto de vista, la vida es muchísimo más probable que lo que se había supuesto hasta hoy. De ahí, el título del libro. Pero, ¿y qué hay de la evolución de los seres vivos? Desde Darwin, la imagen central en la Biología es la de la selección natural escogiendo situaciones útiles entre mutaciones surgidas al azar. Esta imagen domina completamente nuestra actual visión de la vida y lleva a la profunda convicción de que la selección es la única fuente de orden en Biología. Pero la selección no puede ensamblar sistemas complejos; la selección, aunque poderosa, no es todopoderosa. Para Kauffman, se requiere algún motor adicional para explicar la evolución. Ese motor adicional sería el orden espontáneo que surge de forma natural en los conjuntos autocatalíticos que se mueven en el borde del caos. [De nuevo, en este punto pueden citarse claros antecedentes, particularmente la noción de estabilidad estructural surgida en contextos inicialmente desconexos como son la Teoría de las Catástrofes de René Thom, la Termodinámica del No Equilibrio y la Teoría del Caos]. Un tercer factor esencial para entender la evolución sería la existencia de accidentes históricos, el factor azar en forma de lo que Murray Gell-Mann denomina “accidentes congelados” en su delicioso libro “Quark and Jaguar“. En este nuevo marco conceptual teórico que se está creando, la emergencia de la vida dejará de ser un misterio. La vida misma será entendida como la expresión natural de las tendencias espontáneas hacia el orden en un Universo alejado del equilibrio.

Miguel Ángel Medina Torres es Profesor Titular de Bioquímica.

(c) Archivo Fotográfico de Emilio Segré.

(c) Archivo Fotográfico de Emilio Segré.

EL PAIS, martes 15 de abril de 2008, OBITUARIO

John Archibald Wheeler, físico teórico

Fue el científico que acuñó el término “agujero negro”

ENRIQUE ÁLVAREZ 15/04/2008

El domingo pasado moría en su casa el físico John Wheeler, que tenía 96 años de edad. Wheeler era un gran creador, casi un visionario, originario de muchas ideas en física teórica. Richard Feynman fue su alumno más famoso, y juntos escribieron ar-tículos muy interesantes sobre la radiación electromagnética. Es bien sabido que posteriormente Feynman alcanzaría el Premio Nobel por sus trabajos sobre la electrodinámica cuántica.
En su juventud, Wheeler trabajó con Niels Bohr en Copenhague, y colaboró en el año 1939 en la creación del modelo de la gota líquida para explicar la fisión nuclear (la responsable tanto de las bombas de Hiroshima y Nagasaki como de las centrales nucleares actualmente en funcionamiento). Bohr era también un hombre de ideas, rodeado de devotos incondicionales, y que contribuyó enormemente a interpretar la mecánica cuántica.Copenhague era en aquella época un instituto que había que visitar para hablar con Bohr, y muchas ideas surgieron de discusiones entre físicos de diferentes nacionalidades. No es descabellado pensar que Bohr fue siempre un modelo para Wheeler, y es indudable que había puntos en común entre ambos, salvando las distancias, y teniendo en cuenta la diferente época que les tocó vivir.

Pero fue sin duda en el campo de la gravitación donde su influencia fue más visible. Desde su cátedra de Princeton fue el impulsor de la incorporación de la gravitación al resto de la física, junto con el gran físico experimental Robert Dicke, también de la Universidad de Princeton. Hasta entonces, esta disciplina era objeto de estudios formales; de hecho muchos físicos solían decir, medio en broma medio en serio, que era una parte de las matemáticas (cosa que naturalmente, los matemáticos nunca aceptaron del todo). El camino iniciado por Wheeler y Dicke, muy ligado al experimento de precisión y a la observación astrofísica y cosmológica, es el que ha conducido al brillante estado actual de esta especialidad.

Wheeler tenía un indudable talento para encontrar palabras sugerentes con las que expresar sus ideas. Él inventó el término “agujero negro” para describir un objeto tan colapsado que su atracción gravitatoria no deja escapar ni siquiera a los fotones que constituyen la luz ordinaria. Por eso el objeto se ve negro al no emitir ningún tipo de radiación.

Incidentalmente, la gran contribución de Hawking fue demostrar a principios de los años setenta que los efectos cuánticos implican una leve radiación, de forma que los agujeros negros no son completamente negros, después de todo. Pero este efecto es muy débil en los agujeros de interés astrofísico. También en persona tenía un gran encanto, sobre todo con los jóvenes: nunca dejaba sin contestar una pregunta, ni tampoco una carta. En colaboración con Charles Misner y Kip Thorne, destacados miembros de su escuela, escribió un libro de texto llamado simplemente Gravitación, que durante muchos años fue el texto de referencia en el campo.

Wheeler no era apolítico, y participó activamente en el comité Jason (un comité independiente que asesora al Gobierno de Estados Unidos sobre materias de ciencia y tecnología, que se hizo famoso a finales de los años sesenta por su apoyo expreso a la guerra de Vietnam), junto con otros destacados físicos teóricos. Véase el artículo en http://en.wikipedia.org/wiki/JASON.Por otra parte, su estilo un tanto mesiánico no agradaba a todo el mundo.

Pero sus escritos están llenos de preguntas y de ideas. Muchas veces, es históricamente mucho más importante encontrar la pregunta adecuada que formular su respuesta. Wheeler ha servido de inspiración a una gran cantidad de físicos; algunos alumnos directos suyos, y otros que pasaban unos años de su vida en Princeton trabajando en sus ideas. Durante varias décadas Princeton (que casualmente, también es el sitio donde acabó su carrera Einstein), era el sitio de “peregrinación” obligado para toda persona interesada en gravitación.

Con la desaparición de Whee-ler, se apaga uno de los últimos testigos de la gran época de la física.

Enrique Álvarez es catedrático de Física Teórica de la Universidad Autónoma de Madrid.

Acaba de aparecer el último libro de Nick Higham, Functions of Matrices: Theory and Computation y como no iba a ser menos de este “genio”, el código de su libro (Toolbox en Matlab) estará gratuito por internet para quien lo necesite… Merece la pena. Por ejemplo, si necesitas evaluar la solución de sistemas de ecuaciones diferenciales lineales con coeficientes constantes o si utilizas técnicas de resolución basadas en la linealización en cada paso de tiempo. De nuevo, chapó por Mr. Higham.