La Sociedad Física Americana (American Physical Society o APS) es la institución más importante en Física en el mundo y publica la serie de revistas Physical Review, entre las que se encuentra la revista de física de mayor prestigio, Physical Review Letters (aunque no la de mayor índice de impacto). La sociedad publica unos 180000 artículos de investigación al año. Entre esta “marabunta” es difícil encontrar artículos especialmente interesantes que puedan tener un impacto mediático significativo, es decir, artículos para “noticia de prensa” o “entrada de blog”. Para alertar a los periodistas (científicos) de los medios, la APS ofrece Physical Review Focus, donde se publican todas las semanas artículos escritos por periodistas científicos de la sociedad sobre los artículos/descubrimientos más interesantes publicados en los Physical Review. De ahí salen muchas de las noticias de Ciencia que luego aparecen en periódicos nacionales como El País o El Mundo.

¿Pero dónde pueden “divulgar” científicos expertos lo que ellos consideran interesante entre lo publicado en las Physical Review? Acaba de inaugurarse tal portal, Physics, una revista en la que profesionales de la ciencia (no periodistas) pueden escribir, enviar y publicar artículos cortos destacando ciertos avances científicos publicados en las Physical Review. Los llamados Viewpoints (artículos cortos sobre avances importantes puntuales) y Trends (artículos más largos de revisión de avances en todo un campo). Finalmente, el propio staff de la revista publicará las Synopses que cubrirán artículos seleccionados por los propios editores de las Physical Review. Habrá que estar al tanto de esta nueva revista.

En mi opinión, una gran iniciativa de la APS para favorecer la divulgación científica entre los investigadores. Enhorabuena.

¿Por qué el “mundo” es como es? ¿Cómo es el mundo? En Física (teórica) el “mundo” es descrito por el llamado Modelo Estándar. Es un Modelo pues requiere observar la Naturaleza para determinar sus parámetros y constituyentes. Es un Modelo porque se puede adaptar a “otras” realidades, a “otros mundos”. Esta arbitrariedad del Modelo Estándar, ¿es el signo de la validez del principio antrópico? Este principio dice, brevemente, que hay infinitos conjuntos de leyes físicas posibles, que se puedan dar, no existe una Única Ley posible, con lo que el conjunto de leyes que “rigen” nuestro mundo es el que es porque nosostros estamos aquí para poder observarlo, porque son las que permiten que en “nuestro” Universo, en este “momento”, existamos nosotros para poderlas determinar.

Recapitulemos algo sobre el Modelo Estándar. Brevemente se enuncia este modelo aludiendo a los grupos de simetría que subyacen al mismo, es decir, SU(3)xSU(2)xU(1), aunque una descripción técnica más precisa es un poco más complicada. SU(3)c corresponde a la cromodinámica cuántica, la teoría de los quarks; SU(2)xU(1) corresponde a la teoría electrodébil que unifica electromagnetismo U(1) y fuerza nuclear débil (responsable de los procesos en los que intervienen neutrinos). NO hay ninguna justificación teórica “conocida” para que la realidad de la particulas elementales sea descrita en el marco de esta selección concreta de grupos de simetría. En teoría es una de las infinitas posibles generalizaciones del electromagnetismo, parte U(1) del modelo, que son compatibles con la actual teoría cuántica de campos (un teoría claramente “efectiva”). De hecho, es la generalización de la electrodinámica cuántica que han “seleccionado” los resultados experimentales (o los físicos experimentales, mejor dicho). Sin ellos, hubiera sido imposible elegir este modelo concreto (sólo utilizando consideraciones de carácter teórico, al estilo de los problemas gendanken de Einstein).

Pero el modelo SU(3)xSU(2)xU(1) sólo nos dice qué partículas transmisoras de las fuerzas fundamentales (bosones vectoriales de espín 1) existen (el fotón, los bosones W y Z, y los gluones). Nada afirma respecto a las partículas materiales que “sufren” estas interacciones. Hay que especificar su espín y sus cargas (eléctrica, de color, etc.), es decir, las representaciones “físicas” del modelo SU(3)xSU(2)xU(1) (las representaciones de un grupo de simetría son un concepto matemático, pero las representaciones compatibles con la relatividad especial de Einstein, con el llamado grupo de Poincaré, son la parte física de las representaciones de los matemáticos). Desde este punto de vista “teórico” (matemático, diría el físico teórico) hay infinitas posibles elecciones para estas representaciones, aunque la observada experimentalmente es la siguiente

donde se representna los acoplamientos de la materia a los grupos SU(3), SU(2) y U(1), y donde la L y la R indican helicidad izquierda y derecha, respectivamente. Por supuesto, no pretendo explicar con detalle esta expresión matemática aquí (los interesados en una “intepretación” divulgativa pueden consultar la wiki). Lo único importante en nuestro discurso es que muchas otras posibilidades son posibles “teóricamente” (si se cumplen ciertas condiciones de consistencia, como la invarianza relativista, en las que no entraré en detalle, los 2 primeros volúmenes de “The Quantum Theory of Fields” de Steven Weinberg, uno de los “creadores” de la parte SU(2)xU(1) del Modelo Estándar, es “precioso” ent este sentido, aunque reservado para físicos “aficionados”). Sin embargo, entre todas esas posibilidades esta concreta es la “seleccionada” por la Naturaleza, la que observamos en los experimentos. Nada en el Modelo Estándar nos “obliga” a realizar esta elección. Además, existen tres generaciones de partículas elementales con exactamente esta misma estructura. Todas estas generaciones consisten en 2 quarks, un tipo de electrón y un neutrino de dicho tipo.

De hecho, al Modelo Estándar le podemos añadir muchas “cosas” manteniendo su validez. Por ejemplo, tantos campos escalares (de espín 0) como queramos con cualesquiera combinación de cargas posibles (siempre y cuando tengan un masa en reposo suficientemente alta) sin alterar los resultados experimentales obtenidos hasta el presente. Por ejemplo, la famosa partícula de Higgs, que como aún no ha sido observada aún, aunque sí predicha por consistencia y simplicidad, no pertence al Modelo Estándar, aún. La importancia del bosón de Higgs (la ruptura de simetría que implica su existencia) en el Modelo Estándar está muy bien explicada en la conferencia de recepción del Nobel de Veltman (aunque el video está en inglés, obviamente). Por supuesto, si vais a escuchar a Veltman, también tenéis que escuchar a ‘t Hooft (siempre que le he enviado un correo electrónico me ha contestado, un premio Nobel, y yo no soy nadie, le tengo mucho “cariño” en este sentido, además de por sus grandes contribuciones a la física que tanto amo), es el “joven” que hizo el trabajo que Veltman le encargó y que a ambos les dió el Nobel en 1999 (video).

Hay muchos más parámetros en el Modelo Estándar que son libres, es decir, cuyo valor hay que medirlo experimentalmente y no es posible predecirlo teóricamente, como las constantes de acoplamiento, o las masas de las partículas. Concretamente, las 3 constantes de acoplamiento entre gluones. Las 12 masas de los 6 quarks, de los 3 electrones y de los 3 neutrinos. Los ángulos de interacción (mezcla) por interacción débil entre los quarks y los de os neutrinos (en el Modelo Estándar estas partículas son estados “observables” obtenidos por combinación de lineal de estados “puros no observables”, siendo la combinación observada experimentalmente una de las infinitas posibles desde el punto de vista teórico). El parámetro de violación de la simetría CP en la interacción fuerte. La masa del bosón de Higgs y su parámetro de autointeracción. Y muchos más parámetros libres. Depende de quién los cuente son 23 o al menos más de 20. Y no hemos mencionado la “posible” gravedad cuántica, la posible supersimetría, etc. ¡Camarero! ¡Sírvame un parámetro más, por favor!

En resumen, hoy creemos que el mundo es como es porque así es. No tenemos explicación teórica para ello. Y las ideas de la teoría de cuerdas parece que no pueden aportar nada para mejorar esto (el llamado problema del landscape). Si os interesa este tema, el artículo de A.N. Schellekens, “The Emperor’s Last Clothes?,” ArXiv preprint, 21 July 2008 , os será de lectura recomendada (la figura y algunos comentarios están extraídos de él).

Amor grabado de Fernando Ruiz Villaespesa.
Amor. Obra-grabado de Fernando Ruiz Villaespesa.

Copiado de la página web del artista granadino afincado en Málaga Fernando Ruiz Villaespesa.

“Por suprematismo, se entiende la supremacía de la sensibilidad pura en las artes, entre ellas, las plásticas” Casimir Malevich.

El valor de la obra de arte reside, exclusivamente, en la sensibilidad con que se expresa, reside, igualmente, en la energía creadora que deposita el artista sobre el soporte en el que fija la representación gráfica de su sensibilidad.

La forma de representación de las obras de arte no determina, en absoluto, el valor especifico que contiene cada una de ellas, este valor solo puede ser medido mediante la captación de la sensibilidad y de la energía creadora depositadas por el artista y aquella que el receptor de la obra de arte sea capaz de recibir y aportar; para ello, el espectador de la obra debe estar condicionado, ante ella, solo por su propia sensibilidad y debe dejarse imbuir e influir, exclusivamente, por lo que siente ante la contemplación de la obra, menospreciando aquello que le trasmitan otros sentidos que, sin duda, le confundirán con el aporte de datos falsos como: identidad, realidad, belleza, armonía, utilidad etc.

El objeto real, como tal, confunde la percepción sensible, la respuesta a la emoción está implícita en la obra que miramos, no permite que nuestra sensibilidad integrada en el subconsciente actúe. Cuando solo existe el frío y estrecho pasillo de lo explicito para acceder al conocimiento, cuando solo podemos llegar a él a través de ese camino marcado, no hay más opción que caminar sobre el rastro de los que lo han recorrido previamente. El autor no deja opción a que la sensibilidad del actor interaccione en la obra que observa, con lo cual la posibilidad de aportar algo a la acción artística que debería ser compartida por ambos, es nula.

Por el contrario, cada uno de los que mira una obra de arte con una visión sensible aporta una parte de esa visión en la acción artística e incrementa el valor artístico de la obra con solo esa mirada sensible y, por ende, comprensiva.

La inquietud del artista comienza cuando tras el largo camino andado da el último y definitivo paso que lo transporta a la nueva senda en la que el objeto y la representación, en la que había creído hasta ahora, se quedan muy atrás, este último paso separará el pasado del futuro y no tendrá vuelta atrás ¡ el cambio se ha efectuado! La sustitución de la realidad común por la realidad íntima e individual se ha consumado y, con ella, la percepción que se tenía antes de la acción artística ha cambiado de forma irremediable.

Todas estas reflexiones pueden llevar a la confusión del lector haciéndole pensar que el que escribe niega todo valor a la representación y al objeto, no cometan ese terrible error, baste el ejemplo de una colección de arte en la que todos los objetos artísticos pertenecieran a grandes maestros del renacimiento y que el propietario de ella consiguiera extraer toda la sensibilidad y energía depositada en las obras por sus autores ( Miguel, Leonardo, Rafael, ), tras ello, buena parte de los críticos, estudiosos del arte y observadores, más o menos cualificados, no notarían el gran cambio operado en ellas, el sujeto sensible, tanto autor como receptor, sí lo apreciaría.

El arte contemporáneo, en su sentido más literal, no puede estar al servicio de nada ni de nadie, solo es la manifestación de la sensibilidad del creador que se expresa mediante su energía artística y su obra. Por lo tanto, la obra puede estar cargada de datos, representaciones, objetos, símbolos, o bien, carecer de ellos pero si está imbuida de la sensibilidad y expresada mediante la energía artística se convertirá así en obra arte.

Cuando la sensibilidad del espectador del arte alcanza la altura sufriente, cuando le es posible trascender la falta de datos, está preparado para reconocer el hecho artístico en objetos y materias cotidianos que son abstractos en su esencia: una sombra, el movimiento del agua, el viento, la luz que se proyecta, una grieta, una roca, un destello…, muchas cosas que nos rodean y que siempre han conmovido profundamente al ser humano, son disformes y, sin embargo, han sido reconocidas como bellas y, por tanto, han inspirado hechos artísticos.

Un paso más sería que, mediante esa percepción el espectador lograra comprender que las acciones sin forma ni contorno, aquellas que no informan de nada preciso, en las que no hay datos que lean el significado, aquellas cuya comprensión requieren un esfuerzo propio, en las que la sensibilidad del receptor es tan importante como la del autor, son hechos artísticos absolutos, como aquellos de los que hablábamos antes, los que nos acompañan desde que el ánima dejó atrás la animalidad.

Concluyo, por tanto, acción o hecho artístico no es aquello que se consagra como tal por el beneplácito: político, crítico, mercantil , ni el sitio en el que se muestre o albergue la obra, sino la cantidad de energía y sensibilidad aportadas tanto por el autor como por el observador del evento artístico.

Vida grabado de Fernando Ruiz Villaespesa.
Vida. Obra-grabado de Fernando Ruiz Villaespesa.

Me vienen a la mente múltiples aplicaciones de la teoría de cuerdas en teoría cuántica de campos, tras releer que la “dependencia mutua entre ciencia pura y aplicada (…) que tiene por efecto que a menudo la teoría cree y construya, movida por un impulso puramente científico, precisamente aquellas formas que la aplicación práctica necesitará muy pronto para dominar un torrente de problemas venido del exterior,” de Felix Kelin, en Lecciones Sobre la Matemática del S. XIX, quien cree poder “medir el valor de una creación intelectual por este rasero, que alcance o no a sufrir efectos más allá del ámbito de asuntos abstractos en que su creador tenía exclusivamente puesta la vista,” pág 198 de la edición de dicho libro por la editorial Crítica.

Por supuesto, el propio Klein se cura en salud, por si acaso, afirmando “el mundo de ideas matemáticas puras es como un árbol floreciente, tampoco se le puede pedir que todas y cada una de sus flores logradas lleguen además a madurar en fruto.”

La teoría de cuerdas respecto a la teoría cuántica de campos es a la física teórica lo que la matemática pura es respecto a la matemática aplicada. Como todos los físicos teóricos que trabajan en teoría de cuerdas, han estudiado teoría cuántica de campos con anterioridad, y por ello saben la fácil o difícil que es calcular ciertas cosas en el marco del Modelo Estándar, no se ha hecho esperar la aplicación de las nuevas técnicas matemáticas de la teoría de cuerdas en teoría cuántica de campos más estándar. Los resultados son espectaculares. Ciertos cálculos extremadamente difíciles con la matemática estándar en este campo se pueden resolver “fácilmente” usando técnicas de cuerdas. El artículo de Christian Schubert, “Perturbative Quantum Field Theory in the String-Inspired Formalism,” Physics Reports, 355 (2001) 73-234, ArXiv preprint, nos revisa el estado de estas técnicas a finales del 2000. Pero desde entonces se han hecho aún más avances. Hoy en día, estudiar electrodinámica cuántica sin tener en cuenta las técnicas “inspiradas” en teoría de cuerdas (string-inspired) no tiene mucho sentido “práctico”. Especialmente en relación a la resolución numérica o computacional de problemas complicados. Como el propio Christian Schubert, nos hace ver en “QED in the worldline representation,” ArXiv preprint.

Obviamente, si la teoría de cuerdas “mejora” a las teorías cuánticas de campos es porque las incluye como caso particular (por ejemplo, cuando el parámetro de tensión de la cuerda tiende a infinito). Incluso si se descubre que la teoría de cuerdas no es correcta, la matemática que se ha desarrollado para ella puede ser aplicada en teoría cuántica de campos ofreciendo un nuevo enfoque a problemas ya conocidos. Por ejemplo, en teoría cuántica de campos se utiliza un proceso llamado segunda cuantización para evaluar los diagramas de Feynman que surgen en los desarrollos aproximados (perturbativos) de la teoría, ya que en primera cuantización es muy difícil trabajar. Pero en teoría de cuerdas se puede utilizar la primera cuantización (usando integrales de camino de Polyakov, por ejemplo) sin tales dificultades. Cuando estas técnicas inspiradas en teoría de cuerdas son aplicadas en teoría de campos ordinaria se obtienen resultados sorprendentes, casi diría espectaculares, simplificando en extremo ciertos cálculos (eso sí, tras dar un importante “retrueque” técnico y si se domina la “nuevas” herramientas matemáticas de cuerdas). Muchos de los cálculos en el marco del Modelo Estándar que los teóricos tendrán que realizar para interpretar los resultados experimentales del futuro LHC del CERN serán desarrollados utilizando herramientas matemáticas que sin los avances en teoría de cuerdas nunca habrían sido descubiertas. De hecho el congreso anual de teóricos de cuerdas de este año, Strings 2008, se celebrará en el propio CERN.

En resumen, incluso si la teoría de cuerdas acaba siendo un “fiasco”, las técnicas matemáticas desarrolladas bajo su “abrigo” tendrán larga vida en la “caja de herramientas” de todo físico teórico del futuro.

La supernova más luminosa observada hasta el momento, SN2006gy (unas 100 veces más luminosa que una supernova típica) es difícil de explicar con las teorías actuales. ¿Podría ser el resultado de una transición entre una estrella de neutrones y una estrella de quarks? Os recuerdo que las supernovas tipo Ia son transiciones de una enana blanca a estrella de neutrones (la enana recibe materia de una compañera, materia que genera luz termonuclearmente, hasta que se acaba y la estrella explota). Si se confirma la interpretación de esta observación, sería la primera observación de una estrella de quarks. Quizás lo mismo ha ocurrido en las supernovas de alta luminosidad SN2005gj y SN2005ap. Así lo sugieren Denis Leahy, Rachid Ouyed, en “Supernova SN2006gy as a first ever Quark Nova?,” Monthly Notices of the Royal Astronomical Society, Volume 387, Issue 3, July 2008 , Pages 1193-1198 , ArXiv preprint, last revised 10 Apr 2008 .

Sobre las estrellas de quarks, en inglés, os interesará leer el artículo de P. Jaikumar, “Quark stars: features and findings,” European Physics Journal C, vol. 49, pp. 199-203, 2007 (artículo de acceso gratuito). En español es muy interesante el artículo de los cubanos A. Pérez Martínez, Daryel Manreza Paret y A. Ulacia Rey, “Estrellas Degeneradas: Enanas Blancas, Estrellas de Neutrones y de Quarks,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 3, No. 1, pp. 38-48, Julio 2007 .

La muerte de las estrellas de la llamada secuencia principal va acompañada de una explosión de supernovas, que deja como remanente una estrella degenerada de cierta masa: enanas blancas, estrellas de neutrones y las hipotéticas estrellas de quarks (aparte de agujeros negros). La estabilidad de estas estrellas degeneradas está sujeta a que la presión de un gas degenerado de fermiones (electrones, neutrones o quarks, según sea la estrella) se capaz de equilibrar la fuerza gravitatoria debida a su masa.

Las enanas blancas son ampliamente conocidas, por ejemplo, Sirio B, la compañera la estrella aparentemente más brillante del cielo, Sirio A. Su diámetro (medido en 2005) de 12.000 km es menor que el de la Tierra, aunque su masa es casi la del Sol, 0.98 MSol. Estas estrellas no son grandes reactores termonucleares, como nuestro Sol, sino que se se mantienen estables gracias a un fenómeno cuántico, el principio de exclusión de Pauli, que impide que dos electrones (en general, dos fermiones) ocupen el mismo estado cuántico, lo que genera una presión que mantiene la estrella compensando la gravedad, aunque sólo si la masa de ésta es menor que 1.44 MSol.

Si el remanente tiene una masa entre 1.44 y 3 MSol se puede formar una estrella de neutrones, de una radio de unos 10 km, con una velocidad de escape enorme, próxima a la mitad de la velocidad de la luz. Las estrellas de neutrones son demasiado pequeñas para ser detectadas, sin embargo, la evidencia experimental indica que forman parte de los púlsares. El núcleo de estas estrellas está compuesto por una fluido de nucleones (neutrones y protones) electrones y muones, con un 95% de neutrones (formando un superfluido) y solo un 5% de protones cuya carga está compensada por otros tantos electrones.

¿Pero existen estrellas aún más densas? Quizás sí, las estrellas de quarks. La teoría de los quarks (cromodinámica cuántica) es tan complicada que es muy difícil estudiar las propiedades de estas hipotéticas estrellas. Su existencia require que con una densidad de materia superalta puedan existir quarks “libres” o sin confinar (normalmente los quarks están confinados, ocultos, en parejas quark-antiquark en las partículas llamadas mesones y en tríos en los llamados bariones, como el protón o el neutrón).

En 1971, antes del desarrollo de la cromodinámica cuántica, Bodmer conjeturó que la materia extraña (formada por quarks arriba, abajo y extraño) es absolutamente más estable que la materia “normal” (el núcleo del isótopo 56 del hierro). Si se confirma, la materia “normal” sería metaestable y comprimida a una densidad suficientemente alta espontáneamente se convertiría en materia extraña. A diferencia de las estrellas degeneradas, la estabilidad de las estrellas de quarks no requiere la presencia de la gravedad para ser estables. Más, aún su radio podría ser menor que el de las estrellas de neutrones. Desafortunadamente, no hay evidencia fiable de su existencia.

Los interesados en información más técnica disfrutarán del extenso artículo de 51 páginas de Dany Page y Sanjay Reddy, “Dense Matter in Compact Stars: Theoretical Developments and Observational Constraints,” Ann. Rev. Nucl. Part. Sci. 56 ( 2006 ) 327-374, ArXiv preprint.

PS (9 de enero de 2009): Permitidme añadir unos artículos interesantes (los dos primeros en español) en este tema, a nivel de divulgación:

Ricardo González Felipe, Aurora Pérez Martínez, Milva Orsaria, Ernesto López Fune, “Estabilidad de la Materia Extraña y Posibles Estrellas de Quarks,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 4, No. 1, pp. 13-22, Julio 2008 .

Néstor Armesto y Carlos Pajares, “Líquido de quarks y gluones,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 4, No. 1, pp. 3-12, Julio 2008 .

Renxin Xu, “Strange Quark stars: Observations & Speculations,” ArXiv preprint, 24 december 2008 .

Un vídeo con una animación de la NASA que reconstruye la explosión de la supernova SN2006gy (fuente Chandra).

http://es.youtube.com/watch?v=UZDNK70OMjk

La nota de ingreso en la Escuela Técnica Superior de Ingenieros Aeronáuticos (ETSIA) de la Universidad Politécnica de Madrid(UPM) es de las más altas entre todas las ingenierías en España, todos los años. Por su prestigio, ganado a pulso desde los 1950s, en pleno franquismo, cuando el genial von Karman visitaba casi todos los veranos Madrid canalizando un gran intercambio científico entre una España “en tiempos difíciles” y unos EEUU en plena “lujuría de poder”. Si en los 1950s y 1960s había investigación en España a primer nivel mundial, era en la ETSIA de la UPM. Hasta principios de los 1970s no empieza a “sentirse” la ciencia en “el resto” de la universidad española. Más aún, hasta el curso 2003-2004, la única Escuela Técnica Superior que impartía las enseñanzas de Ingeniería Aeronáutica era la ETSIA de la UPM. Sus alumnos son una “muestra” representativa de los mejores (en cuanto a notas de ingreso) de todas las Comunidades Autónomas Españolas.

Figura 1. Notas de Fóica General I versus nota de ingreso.
Figura 1. Notas de Física General I versus nota de ingreso.

El artículo “El fracaso de la formación científica en la enseñanza preuniversitaria y la L.O.E.,” de L. Conde, J.M. Donoso y E. del Río, Revista Española de Física, Enero-Marzo 2006 , presenta un estudio del rendimiento de los alumnos de las asignaturas de Física General I y Física General II en el primer curso de dicha carrera, y de la correlación entre los resultados en las pruebas de estas asignaturas y la nota de ingreso de los alumnos.

La tesis del artículo es que la nota de ingreso no es un buen predictor del rendimiento futuro de los estudiantes, presentando datos que contradicen este aserto. Las figuras 1 y 2 muestran “los resultados obtenidos por los alumnos de nuevo ingreso en su primer examen de Física General I y Física General II. La puntuación representada (…) es una media ponderada de seis ejercicios teóricos y prácticos diferentes, evaluados independientemente por distintos profesores.” Lo más significativo de las figuras es el bajo coeficiente de correlación (r=0.29) del ajuste por mínimos cuadrados, es decir, la dispersión de los datos es muy grande, que evidencia la mínima relación entre las variables consideradas.”

Conclusión 1: “el abandono de la asignatura (no presentados) se encuentra uniformemente distribuído y no depende de la calificación con que ingresa el estudiante.”

Conclusión 2: “el aprobado en la asignatura no guarda relación con la nota de ingreso: Estudiantes con notas de ingreso muy elevadas se muestran incapaces de superar el curso mientras otros con calificaciones inferiores sí lo hacen.”

Figura 2. Notas de Fóica General II versus nota de ingreso.
Figura 2. Notas de Física General II versus nota de ingreso.

Según los autores, “los resultados evidencian que −en lo que a la Física se refiere− elevadas notas de ingreso (…) no garantizan un buen rendimiento de nuestros estudiantes, y tampoco permiten predecir un buen rendimiento posterior. Los autores tienen fundados motivos para creer que este” resultado “constituye una característica común de todos los estudios de carácter científico o técnico” en España. “Estamos convencidos de que resultados muy semejantes a los de las figuras 1 y 2 se obtienen en todas las Facultades y Escuelas Técnicas.”

AÑADIDO: La crítica a este estudio es obvia, “que los físicos se dediquen a hacer física y que dejen a los pedagogos y psicólogos hacer su trabajo.” Bueno, para ahorraros buscar mucho por Internet, en este artículo tenéis un estudio de “ellos” mostrando que el Rendimiento Académico preuniversitario está muy bien correlacionado con el Rendimiento Académico en la universidad. Si buscáis encontraréis muchísimos más artículos con el mismo argumento.

Me ha gustado el artículo Ciencia, Pseudociencias y Divulgación de Francisco Blanco Ramos, del que extraigo algunos pasajes.

“A nuestro alrededor crecen las pseudociencias, prosperan los embaucadores y encuentra fácil audiencia cualquier vendedor de “ancestrales remedios” alternativos a los descubrimientos de la medicina. En esta batalla la lucha es muy desigual, pues a los seres humanos antes nos emociona un misterio que una respuesta. Es más fácil entretener con historias fantásticas sobre duendes y poderes misteriosos, que con explicaciones precisas sobre” física o matemáticas.

“Nuestras inquietudes vitales se llenan más fácilmente con las “certezas” absolutas de una creencia que con la duda sistemática del método científico. Por eso mismo no debería extrañarnos que las elucubraciones de un charlatán tengan más audiencia que las explicaciones de un científico.”

“Para un político la palabra “cultura” (lo mismo que para un periodista o cualquier otro ciudadano) suena a pintura, cine, teatro, espectáculo, … Si soy un poeta puedo permitirme no saber si está más lejos la luna o el sol. Si soy un científico me llamarán ignorante por no haber leído a Calderón de la Barca.”

Para “los medios de comunicación” el “problema parece resuelto: basta encontrar al especialista. Pero… ¿quién es el especialista? ¿será el prestigioso homeópata Dr. Trólez?, ¿o tal vez algún anónimo, despeinado y mal pagado investigador?. ¿Cómo se sabe quién es el verdadero especialista y quién el charlatán?” Si “algo suelen tener en común los pseudocientíficos, es una excelente “puesta en escena” y un arsenal de explicaciones más o menos misteriosas sobre su supuesto saber (incluyendo todo tipo de vocablos de apariencia técnica como ondas, energías, campos magnéticos, …). El distinguir qué son conocimientos científicos y qué son afirmaciones sin fundamento requiere un mínimo de preparación, y ésta no debería faltarle (…) al ciudadano medio de un país moderno.”

Se nota la falta en la escuela de una formación básica en “qué cosa es eso del método científico”. “Se trata de entender cómo sabe” algo “la ciencia. Se trata de distinguir entre lo que es un razonamiento y lo que sólo es una creencia. Se trata de distinguir entre la fiabilidad de una afirmación porque la haga alguna “autoridad”, y la fiabilidad de algo porque puede comprobarse. Se trata de entender qué es una comprobación.”

Pero hay un problema, “el pensamiento crítico requiere mucha madurez, y por ello (…) es esencial una permanente labor de divulgación y concienciación que actualmente es muy escasa.” “Somos los científicos, que quitamos muchas horas al sueño por descubrir los secretos de la naturaleza y muy pocas por dar a conocer al resto de la humanidad cómo los descubrimos.”

A “los profesores de universidad (…) se les exige dedicar todos sus esfuerzos a la enseñanza y el resto de su tiempo a la investigación (todo ello, claro está, sin desatender una abundante burocracia). Es injusto cargar demasiadas culpas en estas criaturas por querer dedicar también algunos ratos a su vida familiar en vez de pasarlos escribiendo trabajos de divulgación (que luego nadie valorará). Ignorar la necesidad apremiante de educar a la sociedad me parece uno de los grandes errores de la comunidad científica. Creo que deberíamos valorar más las tareas de divulgación. Creo que son necesarios más artículos sobre ciencia en la prensa nacional, aunque sea a costa de algunos menos en revistas científicas.”

“En qué consisten esa “educación” y “divulgación” (…) en explicar qué es eso de la ciencia y cuál es su método: la búsqueda de la verdad desde la razón y el juicio crítico. (…) La sociedad debe saber que el conocimiento es fiable en la medida en que es comprobable, no en la medida en que sea creíble.”

Es curioso en lo que pierde el tiempo la gente… yo me dedico a escribir un blog… otros se dedican a la Medicina Cuántica.

Copio literalmente “Se fundamenta en la Física Quántica, que estudia el comportamiento de las partículas subatómicas, descubiertas por “Richard Feynmann”, Premio Nobel de Física en el año de 1965. Basándose en estos descubrimientos, un grupo interdisciplinario en México elaboró un modelo de unidad bioelectrónica del ser humano, para el estudio de la anatomía, fisiología y fisiopatología energéticas del cuerpo humano, teniendo acceso al conocimiento verdadero del orígen de las enfermedades y poderlas tratar.”

Richard, tan cachondo como siempre, se partiría de risa (de paso os recomiendo la divertida lectura de “¿Está usted de broma, Sr. Feynman?,” que yo cada par de años releo por placer).

FAQ sobre Medicina Cuántica: “contamos con facilidades de pago”.

Quizás haya que leer “Las ciencias médicas a las puertas del siglo XXI,” Revista Cubana de Medicina General Integral.

Lo que me lleva a “El uso de frecuencias de sucesos a priori no tiene a nivel individual respuestas adecuadas ni seguras. A nivel diagnóstico y terapéutico, la respuesta individual encierra otros riesgos y responsabilidades. Se debe entender que en el quehacer médico hay leyes pero también contingencias legislando sobre conciencias humanas en un mundo razonablemente indeterminista, lo cual preserva la libertad del enfermo y del médico. La medicina de hoy no se puede situar en los procesos puramente deterministas ni tampoco en los puramente aleatorios. Al azar debe dársele sentido cuantitativo, pero adaptando el intelecto a las conciencias individuales que estamos observando, al factor humano. En ciencia queremos saber si algo es verdad o falso.” Literalmente extraído de “Crítica médica a la lógica formal.”

Lo que, quizás he bebido un copa de más, me lleva más lejos a “¿ciencia se contrapone a método, o más bien el método forma parte de la definición de ciencia? ¿O la ciencia se define por los rasgos de una disciplina académica? ¿Qué relación hay entre medicina, salud pública y epidemiología? ¿Y qué relación entre epidemiología y estadística? ¿Son los problemas que la estadística frecuentista tiene para definir la significación o los tamaños muestrales el origen de su inconsistencia para abordar los problemas complejos? ¿La epidemiología se limita a la tarea de caracterizar la frecuencia y la distribución sin ser capaz de dar el salto analítico o interpretativo? ¿La necesidad de conjugar distintos saberes para interpretar o intervenir sobre problemas complejos reduce el estatuto metodológico o científico de cada saber específico? Y una salva final: ¿es la epidemiología un método científico positivista? ¿Es la epidemiología «el método» científico de las ciencias biomédicas? ¿Los usos definen la esencia?” Gaceta Sanitaria, Barcelona.

¿Es ciencia la medicina alternativa? Hay revistas internacionales dedicadas a ella, como Journal of Alternative and Complementary Medicine. Artículos “tan interesantes” como el de Lionel R. Milgrom, “A New Geometrical Description of Entanglement and the Curative Homeopathic Process,” The Journal of Alternative and Complementary Medicine, 14(3): 329-339, April 2008 , donde se estudia un macro-entrelazamiento cuántico entre el paciente, el médico y la medicina que posibilita la “cura” de la enfermedad.

La medicina cuántica está muy relacionada con la homeopatía moderna. Adquiere el lenguaje “ininteligible” (para el lego) de la física cuántica y lo entremezcla con los “chacras” y otros “palabros” para lograr la (auto)sanación del paciente. Mi “preferido” en este sentido es el trabajo de Lionel, que yo publicó en su serie de 6 artículos sobre “Patient-practitioner-remedy (PPR) entanglement:”

Part 1: a qualitative, non-local metaphor for homeopathy based on quantum theory, Homeopathy, Volume 91, Issue 4, October 2002, Pages 239-248.

Part 2: extending the metaphor for homeopathy using molecular quantum theory, Homeopathy, Volume 92, Issue 1, January 2003, Pages 35-43.

Part 3. Refining the quantum metaphor for homeopathy, Homeopathy, Volume 92, Issue 3, July 2003, Pages 152-160.

Part 4.: Towards classification and unification of the different entanglement models for homeopathy, Homeopathy, Volume 93, Issue 1, January 2004, Pages 34-42.

Part 5. Can homeopathic remedy reactions be outcomes of PPR entanglement? Homeopathy, Volume 93, Issue 2, April 2004, Pages 94-98.

Part 6. Miasms revisited: non-linear quantum theory as a model for the homeopathic process, Homeopathy, Volume 93, Issue 3, July 2004, Pages 154-158.

Conspicuous by its absence: the Memory of Water, macro-entanglement, and the possibility of homeopathy, Homeopathy, Volume 96, Issue 3, July 2007, Pages 209-219.

¿Qué que es lo que le pasa a emulenews hoy? Ni él mismo lo sabe, ¿estará enfermo?

¡No le habrán regalado un libro de “esos”!

El descubrimiento ha sido publicado en la revista Journal of Neurosurgery y lo han logrado científicos del Centro de Trauma Cerebral y Reparación (University of Pennsylvania School of Medicine).

El trasplante de neuronas para reparar el sistema nervioso ya se había logrado con animales, pero en la práctica existen pocas fuentes viables de neuronas que resulten útiles para su utilización clínica. Ahora el equipo de investigadores, liderado por Douglas H. Smith, demostró que se podía inducir el crecimiento de fibras nerviosas (conocidas como axones) en respuesta a una tensión mecánica.

Para conseguirlo, utilizaron neuronas de rata obtenidas de los ganglios de la raíz dorsal en recipientes repletos de nutrientes, conectando entre sí los axones de las neuronas de platos diferentes. Un sistema mecánico controlado por ordenador haría el resto, encargándose de ir separando lentamente los platos, a lo largo de varios días. El largo de los axones aumentó a la par del movimiento de las placas. Luego se incrustaron estas neuronas en una fina película de colágeno y se implantaron en bloque en una rata que tenía una lesión en la médula espinal.

Cuando pasaron 4 semanas del implante se observó cómo la geometría del bloque trasplantado se mantenía, y las neuronas sobrevivian, y lo más importante, los axones de los extremos de la lámina se habían conectado con los de la rata receptora, formando un puente de tejido nervioso funcional.

Ahora, el gran reto es conseguir esto humanos. El equipo de investigadores ya está trabajando en esta dirección, de hecho, ya han obtenido neuronas humanas cosechadas de 16 pacientes seleccionados. Las neuronas en cuestión han sobrevivido más de tres meses en el cultivo de los científicos y sus axones han crecido a razón de casi 1 milímetro por día, hasta alcanzar una longitud de 1 centímetro. Estas neuronas siguen siendo perfectamente funcionales.

De lograrse, el trasplante de neuronas puede cambiar drásticamente la calidad de vida de muchos pacientes con lesiones cerebrales, podrían interactuar con el sistema nervioso del paciente y cumplir perfectamente con las funciones que se encuentren dañadas.

Noticia relacionada.

Researchers Engineer First System of Human Nerve-Cell Tissue.

Artículo técnico: Jason H. Huang et al. “Harvested human neurons engineered as live nervous tissue constructs: implications for transplantation,” Journal of Neurosurgery, Volume 108, Number 2, February 2008 .

La internet ha cambiado el modo en el que se publica, lee, busca y cita a las publicaciones científicas. Un estudio de Evans, publicado hoy en Science, concluye que los investigadores citan a otros autores “mejor” que en el pasado: los artículos citados tienden a ser más recientes, se citan menos artículos, y la mayoría de estas citas son a un conjunto más reducido de revistas y artículos. ¿Por qué? Quizás como no disponían de buscadores automáticos y documentos repletos de hiperenlaces, las búsquedas individuales en la literatura impresa exponían a los investigadores a un conjunto de referencias mucho más amplio, por lo que las citas eran más dispersas, aunque con la ventaja de que también les exponía a un conjunto más amplio de ideas. Según el autor, la educación superior moderna sigue la línea marcada por el “publish or perish”. Cada vez dura menos años, es más especializada y culmina menos frecuentemente en una tesis doctoral de “verdad” en lugar de un mero álbum expositor de artículos.

El estudio de James A. Evans, “Electronic Publication and the Narrowing of Science and Scholarship,” Science, Vol. 321. no. 5887, pp. 395-399, 18 July 2008 , ha utilizado una base de datos con 34 millones de artículos de múltiples revistas disponibles online entre 1998 y 2005, que citan a artículos de 1945 a 2005. Se ha analizado el número de artículos (de una revista concreta) citadas por otros artículos en una año dado. Los resultados son consistentes en el tiempo, no dependen del año, e independientes del campo de conocimiento, es decir, independientes de la revista elegida.

Figura 1. Número de artículos citados en función del número de años que lleva la revista disponible online en Internet.

La mayoría de los estudios sobre cómo los investigadores realizan búsquedas bibliográficas demuestran que el uso de fuentes impresas está en declive respecto al uso de medios electrónicos ya que la mayoría prefiere éstos últimos a los primeros porque facilitan el proceso de búsqueda de información más focalizada [yo mismo era un ratón de hemeroteca hace 10 años y ahora soy un fisgón de internet]. Desafortunadamente esto también sus problemas. Por un lado, la mayoría de los investigadores se limita a búsqueda en un núcleo muy reducido en número de revistas en las que suponen que se publican los artículos más relevantes para su área de conocimiento. Por otro lado, la mayoría de los investigadores hace búsquedas bibliográficas basadas en un tópico o concepto concreto, con lo que el porcentaje de artículos leídos ha decrecido significativamente apareciendo muchas citas a artículos sólo por su título o por su resumen (abstract) sin conocimiento detallado de su contenido.

Figura 2. Número de artículos citados en función del número de años que lleva la revista disponible online.

Sin entrar en los detalles del estudio del que hemos ilustrado dos Figuras representativas, los resultados ilustran un cambio en la manera en la que se cita artículos desde la introducción de los servidores electrónicos de revistas. Incluso teniendo en cuenta que cada día son más los artículos del pasado que pasan a formato online, los artículos recientes citan con preferencia a artículos recientes. Más aún, las revistas electrónicas están provocando que las ideas que no alcanzan cierto consenso científico rápidamente, reflejando las opiniones más citadas o preferidas por la mayoría, son rápidamente olvidadas ante la borágine de las ideas que sí lo alcanzan.

Irónicamente, uno de los grandes valores de la literatura impresa respecto a la electrónica es que está mal indexada, lo que obliga a los investigadores a ojear artículos aparentemente no relacionados, a rebuscar más en el pasado y a comparar ideas más diversas.