El artículo “Exclusion of black hole disaster scenarios at the LHC,” ArXiv preprint, 22 July 2008 , escrito por Benjamin Koch, Marcus Bleicher, y Horst Stoecker, analiza de forma independiente la dinámica de los posibles mini agujeros negros que se puedan generar cuando el Gran Colisionador de Hadrones (LHC del CERN) sea puesto en funcionamiento. El informe final escrito por el comité científico encargado de estudiar la seguridad del LHC (LHC Safety Study Group) , versión “mejorada” de un informe previo de principios de los 2000s, fue publicado recientemente en un extenso artículo. Mucha gente opina que dicho informe “parece un comunicado para tranquilizar a la población y seguir adelante con el experimento.” El nuevo artículo es complementario a dicho informe, completamente independiente, presenta un nuevo análisis (bastante simplificado por cierto) de la seguridad del LHC.

Obviamente, el nuevo estudio, igual que el anterior, se basa en nuestro conocimiento sobre la física de los agujeros negros desarrollado durante el siglo XX. Si la física a la escala de energía de 1 TeV es una “locura” completamente diferente a todo lo conocido en física por debajo de 1 TeV, entonces “apaga y vamonos”, habrá que apretarse “los machos”, ya que nadie puede hacer predicciones sobre ella. Sin embargo, científicamente es completamente irracional pensar que a escalas de 0.5 TeV la física la entendemos muy bien y sin embargo a escalas de 1 TeV no entendemos absolutamente nada. El nuevo estudio supone que la “nueva” física a 1 TeV es tan “novedosa” como para permitir la generación de mini agujeros negros a dicha escala (la teoría de cuerdas es correcta, existen más de 3 dimensiones espaciales y la escala a la que se observa la gravedad cuántica, sea lo que sea, es del orden de 1 TeV), pero lo suficientemente conocido como para que Newton, Boltzmann, Einstein, Hawking, etc. sean aplicables.

Supongamos que lo que “sabemos” (o creemos saber) sobre los agujeros negros es verdad (nadie ha “estudiado” un agujero negro en un laboratorio y lo que sabemos sobre ellos es más teoría que experimento) y además supongamos que las teorías de cuerdas con más de 3 dimensiones espaciales son “correctas” (posiblemente no lo son) y estas dimensiones están “compactificadas” a una escalad de micrómetros (hay algunas hipótesis técnicas adicionales en las que no entraré). ¿Compactificadas? Cuando miras una manguera de regar desde lejos te parece unidimensional, pero cuando te acercas es tridimensional, es decir, de lejos, parece que hay 2 dimensiones “compactificadas”. Si todo esto es verdad, y en lugar de 3 dimensiones espaciales (arriba-abajo, dentro-fuera, derecha-izquierda) hay una cuarta (la “cuarta dimensión”), algunos cálculos simplificados, indican que se podrían formar miniagujeros capaces de “tragarse” la Tierra en unos 27 años. Si hay 5 dimensiones espaciales, se tragarían la Tierra en 10 mil billones de años (algo menos de la edad actual de la Tierra. Si hay más de 6 dimensiones, el tiempo es mucho mayor. Recuerda que la mayoría de las teorías de cuerdas suponen que hay más de 9 dimensiones espaciales. Por supuesto, una de ellas podría estar compactificada en los micrométros y el resto en escalas de longitud mucho más pequeños. Por ahora, nadie lo sabe.

Lo dicho, supongamos que se pueden generar mini agujeros negros a la escala de energías alcanzables en el LHC, ¿cómo serán dichos agujeros negros? Si una teoría de la gravedad a escala cuántica, todavía no la conocemos, es imposible saberlo. Así que tenemos que tener en cuenta todas las posibilidades:

1) Los mini agujeros negros radian (por radiación de Hawking) fuertemente (mucho). En ese caso, también radiarán energía muy rápidamente, más rápidamente de lo que pueden “tragar” materia (acreeción). Desaparecerán antes de que puedan hacer daño alguno. Esto es lo más “razonable” si todo lo que sabemos sobre la física de los agujeros negros es verdad y lo que predicen los modelos de teorías de cuerdas que permiten la producción de agujeros negros en el LHC. Pero podemos estar equivocados ya que desconocemos qué pasa a la escala de más de 1 TeV (aunque sabemos lo que pasa a unos 0.5 TeV, oiga, que tan ignorantes no somos). Lo dicho, en este caso, desaparecerán unos 30 órdenes de magnitud más rápido de lo necesario para “tragarnos a todos”. Lo siento por los apocalípticos.

2) Los mini agujeros no radian nada (Hawking está completamente equivocado, nunca recibirá el premio Nobel, ni nunca se lo merecerá). En ese caso, habría mini agujeros negros en los rayos cósmicos (recibimos rayos cósmicos de muchos TeV constantemente) y no existiría el Sol, ni la Tierra, ni nosotros… ya habríamos sido “tragados” por mini agujeros negros que se habrían generado en el Big Bang en algún momento de los últimos 13 mil millones de años). La existencia del Sistema Solar es prueba más que suficiente de lo benigno de estos mini agujeros negros.

3) Los mini agujeros radian, pero débilmente. Bueno esta la parte más interesante del estudio. Hay dos posibilidades que radien en todas direcciones (radiación “tipo” Hawking) o que lo hagan en “ciertas” direcciones solamente. En el primer caso, los miini agujeros negros radian débilmente pero lo hacen de tal forma que la radiación se para cuando tienen una masa de alrededor de un 1 TeV. A partir de las estimaciones de la energía en los rayos cósmicos, en la “vida” de la Tierra se habrán producido unos 30 mil millones de miniagujeros negros de este tipo. Si todavía la Tierra está aquí, muy “tragones” no tienen que ser. En el segundo caso, hay tres posibilidades.3a) Miniagujeros negros que radian débilmente con una “rapidez” tal que es menor que el tiempo necesario para que el agujero negro recorra el diámetro de (pongamos) un protón (tiempo necesario para que se encuentre con uno y se lo “trague”). Esta escenario es imposible, si las partículas que emite el mini agujero negro son menos pesadas que un electrón (lo normal es que radie fotones, que tienen masa en reposo nula) y lo que se puede “tragar” es más pesado que un protón (en otro caso nada que nos “afecte” podría tragar). Cualquier otra opción está fuera de lo concebible.

3b) Miniagujeros negros que radian débilmente pero con gran “rapidez”. Este caso es exactamente el mismo que el caso 1, ya presentado.

3c) Miniagujeros negros que radian débilmente, con la “rapidez” justa para que se puedan tragar un protón (que la probabilidad que se encuentren uno por el camino sea significativa). Sorprendentemente, esta posiblidad es la más interesante ya que obliga a limitar mucho las propiedades de estos posibles mini agujeros negros. Todo depende de la “fracción” de protón que son capaces de “tragar” cuando lo atraviesan. Recordad que un protón es un “saco” de quarks y gluones (3 quarks de valencia rodeados de “infinidad” de quarks virtuales y gluones virtuales). Si la fracción de protón que el mini agujero negro es capaz de tragar es mayor de 40 millonésimas, este tipo de miniagujeros negros no permitirían la existencia de estrellas densas, como las enanas blancas de más de 1000 millones de años de antiguedad (pero hoy estamos “seguros” de que existen). Si la fracción de protón que pudieran tragar mientras lo atraviesan fuera menor de 40 millonésimas, estos min agujeros negros podrían “tragarse” la Tierra. Uno sólo necesitaría solamente un billón de billones de billones de billones de años. No es infinito, pero antes, el Sol habrá explotado como supernova y nos habrá destruido.

En resumen, todas las posibilidades “razonables” si el LHC es capaz de generar mini agujeros negros (algo poco “razonable”, por cierto), indican que dichos mini agujeros negros serían completamente “benignos” para la humanidad y el futuro de nuestro planeta. Lo siento por los apocalípticos. Tendrán que buscar otra excusa, los físicos, por ahora, no quieren dársela.

La tremenda escalada de precios del petróleo en los últimos años tiene toda la pinta de ser una burbuja especulativa (ver la entrada en este blog). Sin embargo, muchos aún piensan que son los mercados emergentes, el incremento del consumo interno en países como China e India, los responsables reales de la subida de precios y que los “buenos especuladores” no tienen nada que ver. ¿Ha crecido más que exponencialmente el consumo de crudo en China, India o en el mundo? ¿Cómo ha evoluciado el consumo interno de petróleo en China? Los datos son difíciles de obtener debido al obstracismo de su gobierno.

Se acaba de publicar hace unos meses un artículo del ex-presidente chino Jiang Zemin “Reflections on Energy Issues in China“, en la revista Journal of Shanghai Jiao Tong University, de 15 páginas, desafortunadamente, como es de esperar, está escrito en chino. Sin embargo, para mí, lo más interesante del artículo es que incluye una figura con la evolución de los datos oficiales de consumo de petróleo en China en los últimos años, en concreto de 2001 a 2006. La figura es la siguiente.

Datos oficiales de la evolución del consumo de petróleo en China desde 2001 a 2006.
Datos oficiales de la evolución del consumo de petróleo en China desde 2001 a 2006.

Esta figura nos indica más de que la subida del precio del crudo es claramente especulativa (o al menos que el crecimiento lineal del consumo de crudo en China no es responsable del crecimiento exponencial de los precios). ¿Tendrá entonces la culpa India? ¿Otras economías emergentes?

Que dice la EIA (Energy Information Administration, USA) sobre el tema. La demanda de petróleo por parte de los países de la OCDE (incluye a EEUU y Europa), de China y del mundo en total (en Millones de barriles día) es la siguiente:

Como se ve en la tabla entre 2004 y 2007 la demanda diaria de barriles de petróleo en todo el mundo no ha crecido mucho. Por supuesto los datos de la EIA siempre están acompañados de polémica (muchos opinan que están sesgados por los Bush y pro-Bush de EEUU).

En cualquier caso, datos a tener en cuenta.

La Sociedad Física Americana (American Physical Society o APS) es la institución más importante en Física en el mundo y publica la serie de revistas Physical Review, entre las que se encuentra la revista de física de mayor prestigio, Physical Review Letters (aunque no la de mayor índice de impacto). La sociedad publica unos 180000 artículos de investigación al año. Entre esta “marabunta” es difícil encontrar artículos especialmente interesantes que puedan tener un impacto mediático significativo, es decir, artículos para “noticia de prensa” o “entrada de blog”. Para alertar a los periodistas (científicos) de los medios, la APS ofrece Physical Review Focus, donde se publican todas las semanas artículos escritos por periodistas científicos de la sociedad sobre los artículos/descubrimientos más interesantes publicados en los Physical Review. De ahí salen muchas de las noticias de Ciencia que luego aparecen en periódicos nacionales como El País o El Mundo.

¿Pero dónde pueden “divulgar” científicos expertos lo que ellos consideran interesante entre lo publicado en las Physical Review? Acaba de inaugurarse tal portal, Physics, una revista en la que profesionales de la ciencia (no periodistas) pueden escribir, enviar y publicar artículos cortos destacando ciertos avances científicos publicados en las Physical Review. Los llamados Viewpoints (artículos cortos sobre avances importantes puntuales) y Trends (artículos más largos de revisión de avances en todo un campo). Finalmente, el propio staff de la revista publicará las Synopses que cubrirán artículos seleccionados por los propios editores de las Physical Review. Habrá que estar al tanto de esta nueva revista.

En mi opinión, una gran iniciativa de la APS para favorecer la divulgación científica entre los investigadores. Enhorabuena.

¿Por qué el “mundo” es como es? ¿Cómo es el mundo? En Física (teórica) el “mundo” es descrito por el llamado Modelo Estándar. Es un Modelo pues requiere observar la Naturaleza para determinar sus parámetros y constituyentes. Es un Modelo porque se puede adaptar a “otras” realidades, a “otros mundos”. Esta arbitrariedad del Modelo Estándar, ¿es el signo de la validez del principio antrópico? Este principio dice, brevemente, que hay infinitos conjuntos de leyes físicas posibles, que se puedan dar, no existe una Única Ley posible, con lo que el conjunto de leyes que “rigen” nuestro mundo es el que es porque nosostros estamos aquí para poder observarlo, porque son las que permiten que en “nuestro” Universo, en este “momento”, existamos nosotros para poderlas determinar.

Recapitulemos algo sobre el Modelo Estándar. Brevemente se enuncia este modelo aludiendo a los grupos de simetría que subyacen al mismo, es decir, SU(3)xSU(2)xU(1), aunque una descripción técnica más precisa es un poco más complicada. SU(3)c corresponde a la cromodinámica cuántica, la teoría de los quarks; SU(2)xU(1) corresponde a la teoría electrodébil que unifica electromagnetismo U(1) y fuerza nuclear débil (responsable de los procesos en los que intervienen neutrinos). NO hay ninguna justificación teórica “conocida” para que la realidad de la particulas elementales sea descrita en el marco de esta selección concreta de grupos de simetría. En teoría es una de las infinitas posibles generalizaciones del electromagnetismo, parte U(1) del modelo, que son compatibles con la actual teoría cuántica de campos (un teoría claramente “efectiva”). De hecho, es la generalización de la electrodinámica cuántica que han “seleccionado” los resultados experimentales (o los físicos experimentales, mejor dicho). Sin ellos, hubiera sido imposible elegir este modelo concreto (sólo utilizando consideraciones de carácter teórico, al estilo de los problemas gendanken de Einstein).

Pero el modelo SU(3)xSU(2)xU(1) sólo nos dice qué partículas transmisoras de las fuerzas fundamentales (bosones vectoriales de espín 1) existen (el fotón, los bosones W y Z, y los gluones). Nada afirma respecto a las partículas materiales que “sufren” estas interacciones. Hay que especificar su espín y sus cargas (eléctrica, de color, etc.), es decir, las representaciones “físicas” del modelo SU(3)xSU(2)xU(1) (las representaciones de un grupo de simetría son un concepto matemático, pero las representaciones compatibles con la relatividad especial de Einstein, con el llamado grupo de Poincaré, son la parte física de las representaciones de los matemáticos). Desde este punto de vista “teórico” (matemático, diría el físico teórico) hay infinitas posibles elecciones para estas representaciones, aunque la observada experimentalmente es la siguiente

donde se representna los acoplamientos de la materia a los grupos SU(3), SU(2) y U(1), y donde la L y la R indican helicidad izquierda y derecha, respectivamente. Por supuesto, no pretendo explicar con detalle esta expresión matemática aquí (los interesados en una “intepretación” divulgativa pueden consultar la wiki). Lo único importante en nuestro discurso es que muchas otras posibilidades son posibles “teóricamente” (si se cumplen ciertas condiciones de consistencia, como la invarianza relativista, en las que no entraré en detalle, los 2 primeros volúmenes de “The Quantum Theory of Fields” de Steven Weinberg, uno de los “creadores” de la parte SU(2)xU(1) del Modelo Estándar, es “precioso” ent este sentido, aunque reservado para físicos “aficionados”). Sin embargo, entre todas esas posibilidades esta concreta es la “seleccionada” por la Naturaleza, la que observamos en los experimentos. Nada en el Modelo Estándar nos “obliga” a realizar esta elección. Además, existen tres generaciones de partículas elementales con exactamente esta misma estructura. Todas estas generaciones consisten en 2 quarks, un tipo de electrón y un neutrino de dicho tipo.

De hecho, al Modelo Estándar le podemos añadir muchas “cosas” manteniendo su validez. Por ejemplo, tantos campos escalares (de espín 0) como queramos con cualesquiera combinación de cargas posibles (siempre y cuando tengan un masa en reposo suficientemente alta) sin alterar los resultados experimentales obtenidos hasta el presente. Por ejemplo, la famosa partícula de Higgs, que como aún no ha sido observada aún, aunque sí predicha por consistencia y simplicidad, no pertence al Modelo Estándar, aún. La importancia del bosón de Higgs (la ruptura de simetría que implica su existencia) en el Modelo Estándar está muy bien explicada en la conferencia de recepción del Nobel de Veltman (aunque el video está en inglés, obviamente). Por supuesto, si vais a escuchar a Veltman, también tenéis que escuchar a ‘t Hooft (siempre que le he enviado un correo electrónico me ha contestado, un premio Nobel, y yo no soy nadie, le tengo mucho “cariño” en este sentido, además de por sus grandes contribuciones a la física que tanto amo), es el “joven” que hizo el trabajo que Veltman le encargó y que a ambos les dió el Nobel en 1999 (video).

Hay muchos más parámetros en el Modelo Estándar que son libres, es decir, cuyo valor hay que medirlo experimentalmente y no es posible predecirlo teóricamente, como las constantes de acoplamiento, o las masas de las partículas. Concretamente, las 3 constantes de acoplamiento entre gluones. Las 12 masas de los 6 quarks, de los 3 electrones y de los 3 neutrinos. Los ángulos de interacción (mezcla) por interacción débil entre los quarks y los de os neutrinos (en el Modelo Estándar estas partículas son estados “observables” obtenidos por combinación de lineal de estados “puros no observables”, siendo la combinación observada experimentalmente una de las infinitas posibles desde el punto de vista teórico). El parámetro de violación de la simetría CP en la interacción fuerte. La masa del bosón de Higgs y su parámetro de autointeracción. Y muchos más parámetros libres. Depende de quién los cuente son 23 o al menos más de 20. Y no hemos mencionado la “posible” gravedad cuántica, la posible supersimetría, etc. ¡Camarero! ¡Sírvame un parámetro más, por favor!

En resumen, hoy creemos que el mundo es como es porque así es. No tenemos explicación teórica para ello. Y las ideas de la teoría de cuerdas parece que no pueden aportar nada para mejorar esto (el llamado problema del landscape). Si os interesa este tema, el artículo de A.N. Schellekens, “The Emperor’s Last Clothes?,” ArXiv preprint, 21 July 2008 , os será de lectura recomendada (la figura y algunos comentarios están extraídos de él).

Amor grabado de Fernando Ruiz Villaespesa.
Amor. Obra-grabado de Fernando Ruiz Villaespesa.

Copiado de la página web del artista granadino afincado en Málaga Fernando Ruiz Villaespesa.

“Por suprematismo, se entiende la supremacía de la sensibilidad pura en las artes, entre ellas, las plásticas” Casimir Malevich.

El valor de la obra de arte reside, exclusivamente, en la sensibilidad con que se expresa, reside, igualmente, en la energía creadora que deposita el artista sobre el soporte en el que fija la representación gráfica de su sensibilidad.

La forma de representación de las obras de arte no determina, en absoluto, el valor especifico que contiene cada una de ellas, este valor solo puede ser medido mediante la captación de la sensibilidad y de la energía creadora depositadas por el artista y aquella que el receptor de la obra de arte sea capaz de recibir y aportar; para ello, el espectador de la obra debe estar condicionado, ante ella, solo por su propia sensibilidad y debe dejarse imbuir e influir, exclusivamente, por lo que siente ante la contemplación de la obra, menospreciando aquello que le trasmitan otros sentidos que, sin duda, le confundirán con el aporte de datos falsos como: identidad, realidad, belleza, armonía, utilidad etc.

El objeto real, como tal, confunde la percepción sensible, la respuesta a la emoción está implícita en la obra que miramos, no permite que nuestra sensibilidad integrada en el subconsciente actúe. Cuando solo existe el frío y estrecho pasillo de lo explicito para acceder al conocimiento, cuando solo podemos llegar a él a través de ese camino marcado, no hay más opción que caminar sobre el rastro de los que lo han recorrido previamente. El autor no deja opción a que la sensibilidad del actor interaccione en la obra que observa, con lo cual la posibilidad de aportar algo a la acción artística que debería ser compartida por ambos, es nula.

Por el contrario, cada uno de los que mira una obra de arte con una visión sensible aporta una parte de esa visión en la acción artística e incrementa el valor artístico de la obra con solo esa mirada sensible y, por ende, comprensiva.

La inquietud del artista comienza cuando tras el largo camino andado da el último y definitivo paso que lo transporta a la nueva senda en la que el objeto y la representación, en la que había creído hasta ahora, se quedan muy atrás, este último paso separará el pasado del futuro y no tendrá vuelta atrás ¡ el cambio se ha efectuado! La sustitución de la realidad común por la realidad íntima e individual se ha consumado y, con ella, la percepción que se tenía antes de la acción artística ha cambiado de forma irremediable.

Todas estas reflexiones pueden llevar a la confusión del lector haciéndole pensar que el que escribe niega todo valor a la representación y al objeto, no cometan ese terrible error, baste el ejemplo de una colección de arte en la que todos los objetos artísticos pertenecieran a grandes maestros del renacimiento y que el propietario de ella consiguiera extraer toda la sensibilidad y energía depositada en las obras por sus autores ( Miguel, Leonardo, Rafael, ), tras ello, buena parte de los críticos, estudiosos del arte y observadores, más o menos cualificados, no notarían el gran cambio operado en ellas, el sujeto sensible, tanto autor como receptor, sí lo apreciaría.

El arte contemporáneo, en su sentido más literal, no puede estar al servicio de nada ni de nadie, solo es la manifestación de la sensibilidad del creador que se expresa mediante su energía artística y su obra. Por lo tanto, la obra puede estar cargada de datos, representaciones, objetos, símbolos, o bien, carecer de ellos pero si está imbuida de la sensibilidad y expresada mediante la energía artística se convertirá así en obra arte.

Cuando la sensibilidad del espectador del arte alcanza la altura sufriente, cuando le es posible trascender la falta de datos, está preparado para reconocer el hecho artístico en objetos y materias cotidianos que son abstractos en su esencia: una sombra, el movimiento del agua, el viento, la luz que se proyecta, una grieta, una roca, un destello…, muchas cosas que nos rodean y que siempre han conmovido profundamente al ser humano, son disformes y, sin embargo, han sido reconocidas como bellas y, por tanto, han inspirado hechos artísticos.

Un paso más sería que, mediante esa percepción el espectador lograra comprender que las acciones sin forma ni contorno, aquellas que no informan de nada preciso, en las que no hay datos que lean el significado, aquellas cuya comprensión requieren un esfuerzo propio, en las que la sensibilidad del receptor es tan importante como la del autor, son hechos artísticos absolutos, como aquellos de los que hablábamos antes, los que nos acompañan desde que el ánima dejó atrás la animalidad.

Concluyo, por tanto, acción o hecho artístico no es aquello que se consagra como tal por el beneplácito: político, crítico, mercantil , ni el sitio en el que se muestre o albergue la obra, sino la cantidad de energía y sensibilidad aportadas tanto por el autor como por el observador del evento artístico.

Vida grabado de Fernando Ruiz Villaespesa.
Vida. Obra-grabado de Fernando Ruiz Villaespesa.

Me vienen a la mente múltiples aplicaciones de la teoría de cuerdas en teoría cuántica de campos, tras releer que la “dependencia mutua entre ciencia pura y aplicada (…) que tiene por efecto que a menudo la teoría cree y construya, movida por un impulso puramente científico, precisamente aquellas formas que la aplicación práctica necesitará muy pronto para dominar un torrente de problemas venido del exterior,” de Felix Kelin, en Lecciones Sobre la Matemática del S. XIX, quien cree poder “medir el valor de una creación intelectual por este rasero, que alcance o no a sufrir efectos más allá del ámbito de asuntos abstractos en que su creador tenía exclusivamente puesta la vista,” pág 198 de la edición de dicho libro por la editorial Crítica.

Por supuesto, el propio Klein se cura en salud, por si acaso, afirmando “el mundo de ideas matemáticas puras es como un árbol floreciente, tampoco se le puede pedir que todas y cada una de sus flores logradas lleguen además a madurar en fruto.”

La teoría de cuerdas respecto a la teoría cuántica de campos es a la física teórica lo que la matemática pura es respecto a la matemática aplicada. Como todos los físicos teóricos que trabajan en teoría de cuerdas, han estudiado teoría cuántica de campos con anterioridad, y por ello saben la fácil o difícil que es calcular ciertas cosas en el marco del Modelo Estándar, no se ha hecho esperar la aplicación de las nuevas técnicas matemáticas de la teoría de cuerdas en teoría cuántica de campos más estándar. Los resultados son espectaculares. Ciertos cálculos extremadamente difíciles con la matemática estándar en este campo se pueden resolver “fácilmente” usando técnicas de cuerdas. El artículo de Christian Schubert, “Perturbative Quantum Field Theory in the String-Inspired Formalism,” Physics Reports, 355 (2001) 73-234, ArXiv preprint, nos revisa el estado de estas técnicas a finales del 2000. Pero desde entonces se han hecho aún más avances. Hoy en día, estudiar electrodinámica cuántica sin tener en cuenta las técnicas “inspiradas” en teoría de cuerdas (string-inspired) no tiene mucho sentido “práctico”. Especialmente en relación a la resolución numérica o computacional de problemas complicados. Como el propio Christian Schubert, nos hace ver en “QED in the worldline representation,” ArXiv preprint.

Obviamente, si la teoría de cuerdas “mejora” a las teorías cuánticas de campos es porque las incluye como caso particular (por ejemplo, cuando el parámetro de tensión de la cuerda tiende a infinito). Incluso si se descubre que la teoría de cuerdas no es correcta, la matemática que se ha desarrollado para ella puede ser aplicada en teoría cuántica de campos ofreciendo un nuevo enfoque a problemas ya conocidos. Por ejemplo, en teoría cuántica de campos se utiliza un proceso llamado segunda cuantización para evaluar los diagramas de Feynman que surgen en los desarrollos aproximados (perturbativos) de la teoría, ya que en primera cuantización es muy difícil trabajar. Pero en teoría de cuerdas se puede utilizar la primera cuantización (usando integrales de camino de Polyakov, por ejemplo) sin tales dificultades. Cuando estas técnicas inspiradas en teoría de cuerdas son aplicadas en teoría de campos ordinaria se obtienen resultados sorprendentes, casi diría espectaculares, simplificando en extremo ciertos cálculos (eso sí, tras dar un importante “retrueque” técnico y si se domina la “nuevas” herramientas matemáticas de cuerdas). Muchos de los cálculos en el marco del Modelo Estándar que los teóricos tendrán que realizar para interpretar los resultados experimentales del futuro LHC del CERN serán desarrollados utilizando herramientas matemáticas que sin los avances en teoría de cuerdas nunca habrían sido descubiertas. De hecho el congreso anual de teóricos de cuerdas de este año, Strings 2008, se celebrará en el propio CERN.

En resumen, incluso si la teoría de cuerdas acaba siendo un “fiasco”, las técnicas matemáticas desarrolladas bajo su “abrigo” tendrán larga vida en la “caja de herramientas” de todo físico teórico del futuro.

La supernova más luminosa observada hasta el momento, SN2006gy (unas 100 veces más luminosa que una supernova típica) es difícil de explicar con las teorías actuales. ¿Podría ser el resultado de una transición entre una estrella de neutrones y una estrella de quarks? Os recuerdo que las supernovas tipo Ia son transiciones de una enana blanca a estrella de neutrones (la enana recibe materia de una compañera, materia que genera luz termonuclearmente, hasta que se acaba y la estrella explota). Si se confirma la interpretación de esta observación, sería la primera observación de una estrella de quarks. Quizás lo mismo ha ocurrido en las supernovas de alta luminosidad SN2005gj y SN2005ap. Así lo sugieren Denis Leahy, Rachid Ouyed, en “Supernova SN2006gy as a first ever Quark Nova?,” Monthly Notices of the Royal Astronomical Society, Volume 387, Issue 3, July 2008 , Pages 1193-1198 , ArXiv preprint, last revised 10 Apr 2008 .

Sobre las estrellas de quarks, en inglés, os interesará leer el artículo de P. Jaikumar, “Quark stars: features and findings,” European Physics Journal C, vol. 49, pp. 199-203, 2007 (artículo de acceso gratuito). En español es muy interesante el artículo de los cubanos A. Pérez Martínez, Daryel Manreza Paret y A. Ulacia Rey, “Estrellas Degeneradas: Enanas Blancas, Estrellas de Neutrones y de Quarks,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 3, No. 1, pp. 38-48, Julio 2007 .

La muerte de las estrellas de la llamada secuencia principal va acompañada de una explosión de supernovas, que deja como remanente una estrella degenerada de cierta masa: enanas blancas, estrellas de neutrones y las hipotéticas estrellas de quarks (aparte de agujeros negros). La estabilidad de estas estrellas degeneradas está sujeta a que la presión de un gas degenerado de fermiones (electrones, neutrones o quarks, según sea la estrella) se capaz de equilibrar la fuerza gravitatoria debida a su masa.

Las enanas blancas son ampliamente conocidas, por ejemplo, Sirio B, la compañera la estrella aparentemente más brillante del cielo, Sirio A. Su diámetro (medido en 2005) de 12.000 km es menor que el de la Tierra, aunque su masa es casi la del Sol, 0.98 MSol. Estas estrellas no son grandes reactores termonucleares, como nuestro Sol, sino que se se mantienen estables gracias a un fenómeno cuántico, el principio de exclusión de Pauli, que impide que dos electrones (en general, dos fermiones) ocupen el mismo estado cuántico, lo que genera una presión que mantiene la estrella compensando la gravedad, aunque sólo si la masa de ésta es menor que 1.44 MSol.

Si el remanente tiene una masa entre 1.44 y 3 MSol se puede formar una estrella de neutrones, de una radio de unos 10 km, con una velocidad de escape enorme, próxima a la mitad de la velocidad de la luz. Las estrellas de neutrones son demasiado pequeñas para ser detectadas, sin embargo, la evidencia experimental indica que forman parte de los púlsares. El núcleo de estas estrellas está compuesto por una fluido de nucleones (neutrones y protones) electrones y muones, con un 95% de neutrones (formando un superfluido) y solo un 5% de protones cuya carga está compensada por otros tantos electrones.

¿Pero existen estrellas aún más densas? Quizás sí, las estrellas de quarks. La teoría de los quarks (cromodinámica cuántica) es tan complicada que es muy difícil estudiar las propiedades de estas hipotéticas estrellas. Su existencia require que con una densidad de materia superalta puedan existir quarks “libres” o sin confinar (normalmente los quarks están confinados, ocultos, en parejas quark-antiquark en las partículas llamadas mesones y en tríos en los llamados bariones, como el protón o el neutrón).

En 1971, antes del desarrollo de la cromodinámica cuántica, Bodmer conjeturó que la materia extraña (formada por quarks arriba, abajo y extraño) es absolutamente más estable que la materia “normal” (el núcleo del isótopo 56 del hierro). Si se confirma, la materia “normal” sería metaestable y comprimida a una densidad suficientemente alta espontáneamente se convertiría en materia extraña. A diferencia de las estrellas degeneradas, la estabilidad de las estrellas de quarks no requiere la presencia de la gravedad para ser estables. Más, aún su radio podría ser menor que el de las estrellas de neutrones. Desafortunadamente, no hay evidencia fiable de su existencia.

Los interesados en información más técnica disfrutarán del extenso artículo de 51 páginas de Dany Page y Sanjay Reddy, “Dense Matter in Compact Stars: Theoretical Developments and Observational Constraints,” Ann. Rev. Nucl. Part. Sci. 56 ( 2006 ) 327-374, ArXiv preprint.

PS (9 de enero de 2009): Permitidme añadir unos artículos interesantes (los dos primeros en español) en este tema, a nivel de divulgación:

Ricardo González Felipe, Aurora Pérez Martínez, Milva Orsaria, Ernesto López Fune, “Estabilidad de la Materia Extraña y Posibles Estrellas de Quarks,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 4, No. 1, pp. 13-22, Julio 2008 .

Néstor Armesto y Carlos Pajares, “Líquido de quarks y gluones,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 4, No. 1, pp. 3-12, Julio 2008 .

Renxin Xu, “Strange Quark stars: Observations & Speculations,” ArXiv preprint, 24 december 2008 .

Un vídeo con una animación de la NASA que reconstruye la explosión de la supernova SN2006gy (fuente Chandra).

http://es.youtube.com/watch?v=UZDNK70OMjk

La nota de ingreso en la Escuela Técnica Superior de Ingenieros Aeronáuticos (ETSIA) de la Universidad Politécnica de Madrid(UPM) es de las más altas entre todas las ingenierías en España, todos los años. Por su prestigio, ganado a pulso desde los 1950s, en pleno franquismo, cuando el genial von Karman visitaba casi todos los veranos Madrid canalizando un gran intercambio científico entre una España “en tiempos difíciles” y unos EEUU en plena “lujuría de poder”. Si en los 1950s y 1960s había investigación en España a primer nivel mundial, era en la ETSIA de la UPM. Hasta principios de los 1970s no empieza a “sentirse” la ciencia en “el resto” de la universidad española. Más aún, hasta el curso 2003-2004, la única Escuela Técnica Superior que impartía las enseñanzas de Ingeniería Aeronáutica era la ETSIA de la UPM. Sus alumnos son una “muestra” representativa de los mejores (en cuanto a notas de ingreso) de todas las Comunidades Autónomas Españolas.

Figura 1. Notas de Fóica General I versus nota de ingreso.
Figura 1. Notas de Física General I versus nota de ingreso.

El artículo “El fracaso de la formación científica en la enseñanza preuniversitaria y la L.O.E.,” de L. Conde, J.M. Donoso y E. del Río, Revista Española de Física, Enero-Marzo 2006 , presenta un estudio del rendimiento de los alumnos de las asignaturas de Física General I y Física General II en el primer curso de dicha carrera, y de la correlación entre los resultados en las pruebas de estas asignaturas y la nota de ingreso de los alumnos.

La tesis del artículo es que la nota de ingreso no es un buen predictor del rendimiento futuro de los estudiantes, presentando datos que contradicen este aserto. Las figuras 1 y 2 muestran “los resultados obtenidos por los alumnos de nuevo ingreso en su primer examen de Física General I y Física General II. La puntuación representada (…) es una media ponderada de seis ejercicios teóricos y prácticos diferentes, evaluados independientemente por distintos profesores.” Lo más significativo de las figuras es el bajo coeficiente de correlación (r=0.29) del ajuste por mínimos cuadrados, es decir, la dispersión de los datos es muy grande, que evidencia la mínima relación entre las variables consideradas.”

Conclusión 1: “el abandono de la asignatura (no presentados) se encuentra uniformemente distribuído y no depende de la calificación con que ingresa el estudiante.”

Conclusión 2: “el aprobado en la asignatura no guarda relación con la nota de ingreso: Estudiantes con notas de ingreso muy elevadas se muestran incapaces de superar el curso mientras otros con calificaciones inferiores sí lo hacen.”

Figura 2. Notas de Fóica General II versus nota de ingreso.
Figura 2. Notas de Física General II versus nota de ingreso.

Según los autores, “los resultados evidencian que −en lo que a la Física se refiere− elevadas notas de ingreso (…) no garantizan un buen rendimiento de nuestros estudiantes, y tampoco permiten predecir un buen rendimiento posterior. Los autores tienen fundados motivos para creer que este” resultado “constituye una característica común de todos los estudios de carácter científico o técnico” en España. “Estamos convencidos de que resultados muy semejantes a los de las figuras 1 y 2 se obtienen en todas las Facultades y Escuelas Técnicas.”

AÑADIDO: La crítica a este estudio es obvia, “que los físicos se dediquen a hacer física y que dejen a los pedagogos y psicólogos hacer su trabajo.” Bueno, para ahorraros buscar mucho por Internet, en este artículo tenéis un estudio de “ellos” mostrando que el Rendimiento Académico preuniversitario está muy bien correlacionado con el Rendimiento Académico en la universidad. Si buscáis encontraréis muchísimos más artículos con el mismo argumento.

Me ha gustado el artículo Ciencia, Pseudociencias y Divulgación de Francisco Blanco Ramos, del que extraigo algunos pasajes.

“A nuestro alrededor crecen las pseudociencias, prosperan los embaucadores y encuentra fácil audiencia cualquier vendedor de “ancestrales remedios” alternativos a los descubrimientos de la medicina. En esta batalla la lucha es muy desigual, pues a los seres humanos antes nos emociona un misterio que una respuesta. Es más fácil entretener con historias fantásticas sobre duendes y poderes misteriosos, que con explicaciones precisas sobre” física o matemáticas.

“Nuestras inquietudes vitales se llenan más fácilmente con las “certezas” absolutas de una creencia que con la duda sistemática del método científico. Por eso mismo no debería extrañarnos que las elucubraciones de un charlatán tengan más audiencia que las explicaciones de un científico.”

“Para un político la palabra “cultura” (lo mismo que para un periodista o cualquier otro ciudadano) suena a pintura, cine, teatro, espectáculo, … Si soy un poeta puedo permitirme no saber si está más lejos la luna o el sol. Si soy un científico me llamarán ignorante por no haber leído a Calderón de la Barca.”

Para “los medios de comunicación” el “problema parece resuelto: basta encontrar al especialista. Pero… ¿quién es el especialista? ¿será el prestigioso homeópata Dr. Trólez?, ¿o tal vez algún anónimo, despeinado y mal pagado investigador?. ¿Cómo se sabe quién es el verdadero especialista y quién el charlatán?” Si “algo suelen tener en común los pseudocientíficos, es una excelente “puesta en escena” y un arsenal de explicaciones más o menos misteriosas sobre su supuesto saber (incluyendo todo tipo de vocablos de apariencia técnica como ondas, energías, campos magnéticos, …). El distinguir qué son conocimientos científicos y qué son afirmaciones sin fundamento requiere un mínimo de preparación, y ésta no debería faltarle (…) al ciudadano medio de un país moderno.”

Se nota la falta en la escuela de una formación básica en “qué cosa es eso del método científico”. “Se trata de entender cómo sabe” algo “la ciencia. Se trata de distinguir entre lo que es un razonamiento y lo que sólo es una creencia. Se trata de distinguir entre la fiabilidad de una afirmación porque la haga alguna “autoridad”, y la fiabilidad de algo porque puede comprobarse. Se trata de entender qué es una comprobación.”

Pero hay un problema, “el pensamiento crítico requiere mucha madurez, y por ello (…) es esencial una permanente labor de divulgación y concienciación que actualmente es muy escasa.” “Somos los científicos, que quitamos muchas horas al sueño por descubrir los secretos de la naturaleza y muy pocas por dar a conocer al resto de la humanidad cómo los descubrimos.”

A “los profesores de universidad (…) se les exige dedicar todos sus esfuerzos a la enseñanza y el resto de su tiempo a la investigación (todo ello, claro está, sin desatender una abundante burocracia). Es injusto cargar demasiadas culpas en estas criaturas por querer dedicar también algunos ratos a su vida familiar en vez de pasarlos escribiendo trabajos de divulgación (que luego nadie valorará). Ignorar la necesidad apremiante de educar a la sociedad me parece uno de los grandes errores de la comunidad científica. Creo que deberíamos valorar más las tareas de divulgación. Creo que son necesarios más artículos sobre ciencia en la prensa nacional, aunque sea a costa de algunos menos en revistas científicas.”

“En qué consisten esa “educación” y “divulgación” (…) en explicar qué es eso de la ciencia y cuál es su método: la búsqueda de la verdad desde la razón y el juicio crítico. (…) La sociedad debe saber que el conocimiento es fiable en la medida en que es comprobable, no en la medida en que sea creíble.”

Es curioso en lo que pierde el tiempo la gente… yo me dedico a escribir un blog… otros se dedican a la Medicina Cuántica.

Copio literalmente “Se fundamenta en la Física Quántica, que estudia el comportamiento de las partículas subatómicas, descubiertas por “Richard Feynmann”, Premio Nobel de Física en el año de 1965. Basándose en estos descubrimientos, un grupo interdisciplinario en México elaboró un modelo de unidad bioelectrónica del ser humano, para el estudio de la anatomía, fisiología y fisiopatología energéticas del cuerpo humano, teniendo acceso al conocimiento verdadero del orígen de las enfermedades y poderlas tratar.”

Richard, tan cachondo como siempre, se partiría de risa (de paso os recomiendo la divertida lectura de “¿Está usted de broma, Sr. Feynman?,” que yo cada par de años releo por placer).

FAQ sobre Medicina Cuántica: “contamos con facilidades de pago”.

Quizás haya que leer “Las ciencias médicas a las puertas del siglo XXI,” Revista Cubana de Medicina General Integral.

Lo que me lleva a “El uso de frecuencias de sucesos a priori no tiene a nivel individual respuestas adecuadas ni seguras. A nivel diagnóstico y terapéutico, la respuesta individual encierra otros riesgos y responsabilidades. Se debe entender que en el quehacer médico hay leyes pero también contingencias legislando sobre conciencias humanas en un mundo razonablemente indeterminista, lo cual preserva la libertad del enfermo y del médico. La medicina de hoy no se puede situar en los procesos puramente deterministas ni tampoco en los puramente aleatorios. Al azar debe dársele sentido cuantitativo, pero adaptando el intelecto a las conciencias individuales que estamos observando, al factor humano. En ciencia queremos saber si algo es verdad o falso.” Literalmente extraído de “Crítica médica a la lógica formal.”

Lo que, quizás he bebido un copa de más, me lleva más lejos a “¿ciencia se contrapone a método, o más bien el método forma parte de la definición de ciencia? ¿O la ciencia se define por los rasgos de una disciplina académica? ¿Qué relación hay entre medicina, salud pública y epidemiología? ¿Y qué relación entre epidemiología y estadística? ¿Son los problemas que la estadística frecuentista tiene para definir la significación o los tamaños muestrales el origen de su inconsistencia para abordar los problemas complejos? ¿La epidemiología se limita a la tarea de caracterizar la frecuencia y la distribución sin ser capaz de dar el salto analítico o interpretativo? ¿La necesidad de conjugar distintos saberes para interpretar o intervenir sobre problemas complejos reduce el estatuto metodológico o científico de cada saber específico? Y una salva final: ¿es la epidemiología un método científico positivista? ¿Es la epidemiología «el método» científico de las ciencias biomédicas? ¿Los usos definen la esencia?” Gaceta Sanitaria, Barcelona.

¿Es ciencia la medicina alternativa? Hay revistas internacionales dedicadas a ella, como Journal of Alternative and Complementary Medicine. Artículos “tan interesantes” como el de Lionel R. Milgrom, “A New Geometrical Description of Entanglement and the Curative Homeopathic Process,” The Journal of Alternative and Complementary Medicine, 14(3): 329-339, April 2008 , donde se estudia un macro-entrelazamiento cuántico entre el paciente, el médico y la medicina que posibilita la “cura” de la enfermedad.

La medicina cuántica está muy relacionada con la homeopatía moderna. Adquiere el lenguaje “ininteligible” (para el lego) de la física cuántica y lo entremezcla con los “chacras” y otros “palabros” para lograr la (auto)sanación del paciente. Mi “preferido” en este sentido es el trabajo de Lionel, que yo publicó en su serie de 6 artículos sobre “Patient-practitioner-remedy (PPR) entanglement:”

Part 1: a qualitative, non-local metaphor for homeopathy based on quantum theory, Homeopathy, Volume 91, Issue 4, October 2002, Pages 239-248.

Part 2: extending the metaphor for homeopathy using molecular quantum theory, Homeopathy, Volume 92, Issue 1, January 2003, Pages 35-43.

Part 3. Refining the quantum metaphor for homeopathy, Homeopathy, Volume 92, Issue 3, July 2003, Pages 152-160.

Part 4.: Towards classification and unification of the different entanglement models for homeopathy, Homeopathy, Volume 93, Issue 1, January 2004, Pages 34-42.

Part 5. Can homeopathic remedy reactions be outcomes of PPR entanglement? Homeopathy, Volume 93, Issue 2, April 2004, Pages 94-98.

Part 6. Miasms revisited: non-linear quantum theory as a model for the homeopathic process, Homeopathy, Volume 93, Issue 3, July 2004, Pages 154-158.

Conspicuous by its absence: the Memory of Water, macro-entanglement, and the possibility of homeopathy, Homeopathy, Volume 96, Issue 3, July 2007, Pages 209-219.

¿Qué que es lo que le pasa a emulenews hoy? Ni él mismo lo sabe, ¿estará enfermo?

¡No le habrán regalado un libro de “esos”!