La supernova más luminosa observada hasta el momento, SN2006gy (unas 100 veces más luminosa que una supernova típica) es difícil de explicar con las teorías actuales. ¿Podría ser el resultado de una transición entre una estrella de neutrones y una estrella de quarks? Os recuerdo que las supernovas tipo Ia son transiciones de una enana blanca a estrella de neutrones (la enana recibe materia de una compañera, materia que genera luz termonuclearmente, hasta que se acaba y la estrella explota). Si se confirma la interpretación de esta observación, sería la primera observación de una estrella de quarks. Quizás lo mismo ha ocurrido en las supernovas de alta luminosidad SN2005gj y SN2005ap. Así lo sugieren Denis Leahy, Rachid Ouyed, en “Supernova SN2006gy as a first ever Quark Nova?,” Monthly Notices of the Royal Astronomical Society, Volume 387, Issue 3, July 2008 , Pages 1193-1198 , ArXiv preprint, last revised 10 Apr 2008 .

Sobre las estrellas de quarks, en inglés, os interesará leer el artículo de P. Jaikumar, “Quark stars: features and findings,” European Physics Journal C, vol. 49, pp. 199-203, 2007 (artículo de acceso gratuito). En español es muy interesante el artículo de los cubanos A. Pérez Martínez, Daryel Manreza Paret y A. Ulacia Rey, “Estrellas Degeneradas: Enanas Blancas, Estrellas de Neutrones y de Quarks,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 3, No. 1, pp. 38-48, Julio 2007 .

La muerte de las estrellas de la llamada secuencia principal va acompañada de una explosión de supernovas, que deja como remanente una estrella degenerada de cierta masa: enanas blancas, estrellas de neutrones y las hipotéticas estrellas de quarks (aparte de agujeros negros). La estabilidad de estas estrellas degeneradas está sujeta a que la presión de un gas degenerado de fermiones (electrones, neutrones o quarks, según sea la estrella) se capaz de equilibrar la fuerza gravitatoria debida a su masa.

Las enanas blancas son ampliamente conocidas, por ejemplo, Sirio B, la compañera la estrella aparentemente más brillante del cielo, Sirio A. Su diámetro (medido en 2005) de 12.000 km es menor que el de la Tierra, aunque su masa es casi la del Sol, 0.98 MSol. Estas estrellas no son grandes reactores termonucleares, como nuestro Sol, sino que se se mantienen estables gracias a un fenómeno cuántico, el principio de exclusión de Pauli, que impide que dos electrones (en general, dos fermiones) ocupen el mismo estado cuántico, lo que genera una presión que mantiene la estrella compensando la gravedad, aunque sólo si la masa de ésta es menor que 1.44 MSol.

Si el remanente tiene una masa entre 1.44 y 3 MSol se puede formar una estrella de neutrones, de una radio de unos 10 km, con una velocidad de escape enorme, próxima a la mitad de la velocidad de la luz. Las estrellas de neutrones son demasiado pequeñas para ser detectadas, sin embargo, la evidencia experimental indica que forman parte de los púlsares. El núcleo de estas estrellas está compuesto por una fluido de nucleones (neutrones y protones) electrones y muones, con un 95% de neutrones (formando un superfluido) y solo un 5% de protones cuya carga está compensada por otros tantos electrones.

¿Pero existen estrellas aún más densas? Quizás sí, las estrellas de quarks. La teoría de los quarks (cromodinámica cuántica) es tan complicada que es muy difícil estudiar las propiedades de estas hipotéticas estrellas. Su existencia require que con una densidad de materia superalta puedan existir quarks “libres” o sin confinar (normalmente los quarks están confinados, ocultos, en parejas quark-antiquark en las partículas llamadas mesones y en tríos en los llamados bariones, como el protón o el neutrón).

En 1971, antes del desarrollo de la cromodinámica cuántica, Bodmer conjeturó que la materia extraña (formada por quarks arriba, abajo y extraño) es absolutamente más estable que la materia “normal” (el núcleo del isótopo 56 del hierro). Si se confirma, la materia “normal” sería metaestable y comprimida a una densidad suficientemente alta espontáneamente se convertiría en materia extraña. A diferencia de las estrellas degeneradas, la estabilidad de las estrellas de quarks no requiere la presencia de la gravedad para ser estables. Más, aún su radio podría ser menor que el de las estrellas de neutrones. Desafortunadamente, no hay evidencia fiable de su existencia.

Los interesados en información más técnica disfrutarán del extenso artículo de 51 páginas de Dany Page y Sanjay Reddy, “Dense Matter in Compact Stars: Theoretical Developments and Observational Constraints,” Ann. Rev. Nucl. Part. Sci. 56 ( 2006 ) 327-374, ArXiv preprint.

PS (9 de enero de 2009): Permitidme añadir unos artículos interesantes (los dos primeros en español) en este tema, a nivel de divulgación:

Ricardo González Felipe, Aurora Pérez Martínez, Milva Orsaria, Ernesto López Fune, “Estabilidad de la Materia Extraña y Posibles Estrellas de Quarks,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 4, No. 1, pp. 13-22, Julio 2008 .

Néstor Armesto y Carlos Pajares, “Líquido de quarks y gluones,” Revista de la Unión Iberoamericana de Sociedades de Física, Vol. 4, No. 1, pp. 3-12, Julio 2008 .

Renxin Xu, “Strange Quark stars: Observations & Speculations,” ArXiv preprint, 24 december 2008 .

Un vídeo con una animación de la NASA que reconstruye la explosión de la supernova SN2006gy (fuente Chandra).

http://es.youtube.com/watch?v=UZDNK70OMjk

La nota de ingreso en la Escuela Técnica Superior de Ingenieros Aeronáuticos (ETSIA) de la Universidad Politécnica de Madrid(UPM) es de las más altas entre todas las ingenierías en España, todos los años. Por su prestigio, ganado a pulso desde los 1950s, en pleno franquismo, cuando el genial von Karman visitaba casi todos los veranos Madrid canalizando un gran intercambio científico entre una España “en tiempos difíciles” y unos EEUU en plena “lujuría de poder”. Si en los 1950s y 1960s había investigación en España a primer nivel mundial, era en la ETSIA de la UPM. Hasta principios de los 1970s no empieza a “sentirse” la ciencia en “el resto” de la universidad española. Más aún, hasta el curso 2003-2004, la única Escuela Técnica Superior que impartía las enseñanzas de Ingeniería Aeronáutica era la ETSIA de la UPM. Sus alumnos son una “muestra” representativa de los mejores (en cuanto a notas de ingreso) de todas las Comunidades Autónomas Españolas.

Figura 1. Notas de Fóica General I versus nota de ingreso.
Figura 1. Notas de Física General I versus nota de ingreso.

El artículo “El fracaso de la formación científica en la enseñanza preuniversitaria y la L.O.E.,” de L. Conde, J.M. Donoso y E. del Río, Revista Española de Física, Enero-Marzo 2006 , presenta un estudio del rendimiento de los alumnos de las asignaturas de Física General I y Física General II en el primer curso de dicha carrera, y de la correlación entre los resultados en las pruebas de estas asignaturas y la nota de ingreso de los alumnos.

La tesis del artículo es que la nota de ingreso no es un buen predictor del rendimiento futuro de los estudiantes, presentando datos que contradicen este aserto. Las figuras 1 y 2 muestran “los resultados obtenidos por los alumnos de nuevo ingreso en su primer examen de Física General I y Física General II. La puntuación representada (…) es una media ponderada de seis ejercicios teóricos y prácticos diferentes, evaluados independientemente por distintos profesores.” Lo más significativo de las figuras es el bajo coeficiente de correlación (r=0.29) del ajuste por mínimos cuadrados, es decir, la dispersión de los datos es muy grande, que evidencia la mínima relación entre las variables consideradas.”

Conclusión 1: “el abandono de la asignatura (no presentados) se encuentra uniformemente distribuído y no depende de la calificación con que ingresa el estudiante.”

Conclusión 2: “el aprobado en la asignatura no guarda relación con la nota de ingreso: Estudiantes con notas de ingreso muy elevadas se muestran incapaces de superar el curso mientras otros con calificaciones inferiores sí lo hacen.”

Figura 2. Notas de Fóica General II versus nota de ingreso.
Figura 2. Notas de Física General II versus nota de ingreso.

Según los autores, “los resultados evidencian que −en lo que a la Física se refiere− elevadas notas de ingreso (…) no garantizan un buen rendimiento de nuestros estudiantes, y tampoco permiten predecir un buen rendimiento posterior. Los autores tienen fundados motivos para creer que este” resultado “constituye una característica común de todos los estudios de carácter científico o técnico” en España. “Estamos convencidos de que resultados muy semejantes a los de las figuras 1 y 2 se obtienen en todas las Facultades y Escuelas Técnicas.”

AÑADIDO: La crítica a este estudio es obvia, “que los físicos se dediquen a hacer física y que dejen a los pedagogos y psicólogos hacer su trabajo.” Bueno, para ahorraros buscar mucho por Internet, en este artículo tenéis un estudio de “ellos” mostrando que el Rendimiento Académico preuniversitario está muy bien correlacionado con el Rendimiento Académico en la universidad. Si buscáis encontraréis muchísimos más artículos con el mismo argumento.

Me ha gustado el artículo Ciencia, Pseudociencias y Divulgación de Francisco Blanco Ramos, del que extraigo algunos pasajes.

“A nuestro alrededor crecen las pseudociencias, prosperan los embaucadores y encuentra fácil audiencia cualquier vendedor de “ancestrales remedios” alternativos a los descubrimientos de la medicina. En esta batalla la lucha es muy desigual, pues a los seres humanos antes nos emociona un misterio que una respuesta. Es más fácil entretener con historias fantásticas sobre duendes y poderes misteriosos, que con explicaciones precisas sobre” física o matemáticas.

“Nuestras inquietudes vitales se llenan más fácilmente con las “certezas” absolutas de una creencia que con la duda sistemática del método científico. Por eso mismo no debería extrañarnos que las elucubraciones de un charlatán tengan más audiencia que las explicaciones de un científico.”

“Para un político la palabra “cultura” (lo mismo que para un periodista o cualquier otro ciudadano) suena a pintura, cine, teatro, espectáculo, … Si soy un poeta puedo permitirme no saber si está más lejos la luna o el sol. Si soy un científico me llamarán ignorante por no haber leído a Calderón de la Barca.”

Para “los medios de comunicación” el “problema parece resuelto: basta encontrar al especialista. Pero… ¿quién es el especialista? ¿será el prestigioso homeópata Dr. Trólez?, ¿o tal vez algún anónimo, despeinado y mal pagado investigador?. ¿Cómo se sabe quién es el verdadero especialista y quién el charlatán?” Si “algo suelen tener en común los pseudocientíficos, es una excelente “puesta en escena” y un arsenal de explicaciones más o menos misteriosas sobre su supuesto saber (incluyendo todo tipo de vocablos de apariencia técnica como ondas, energías, campos magnéticos, …). El distinguir qué son conocimientos científicos y qué son afirmaciones sin fundamento requiere un mínimo de preparación, y ésta no debería faltarle (…) al ciudadano medio de un país moderno.”

Se nota la falta en la escuela de una formación básica en “qué cosa es eso del método científico”. “Se trata de entender cómo sabe” algo “la ciencia. Se trata de distinguir entre lo que es un razonamiento y lo que sólo es una creencia. Se trata de distinguir entre la fiabilidad de una afirmación porque la haga alguna “autoridad”, y la fiabilidad de algo porque puede comprobarse. Se trata de entender qué es una comprobación.”

Pero hay un problema, “el pensamiento crítico requiere mucha madurez, y por ello (…) es esencial una permanente labor de divulgación y concienciación que actualmente es muy escasa.” “Somos los científicos, que quitamos muchas horas al sueño por descubrir los secretos de la naturaleza y muy pocas por dar a conocer al resto de la humanidad cómo los descubrimos.”

A “los profesores de universidad (…) se les exige dedicar todos sus esfuerzos a la enseñanza y el resto de su tiempo a la investigación (todo ello, claro está, sin desatender una abundante burocracia). Es injusto cargar demasiadas culpas en estas criaturas por querer dedicar también algunos ratos a su vida familiar en vez de pasarlos escribiendo trabajos de divulgación (que luego nadie valorará). Ignorar la necesidad apremiante de educar a la sociedad me parece uno de los grandes errores de la comunidad científica. Creo que deberíamos valorar más las tareas de divulgación. Creo que son necesarios más artículos sobre ciencia en la prensa nacional, aunque sea a costa de algunos menos en revistas científicas.”

“En qué consisten esa “educación” y “divulgación” (…) en explicar qué es eso de la ciencia y cuál es su método: la búsqueda de la verdad desde la razón y el juicio crítico. (…) La sociedad debe saber que el conocimiento es fiable en la medida en que es comprobable, no en la medida en que sea creíble.”

Es curioso en lo que pierde el tiempo la gente… yo me dedico a escribir un blog… otros se dedican a la Medicina Cuántica.

Copio literalmente “Se fundamenta en la Física Quántica, que estudia el comportamiento de las partículas subatómicas, descubiertas por “Richard Feynmann”, Premio Nobel de Física en el año de 1965. Basándose en estos descubrimientos, un grupo interdisciplinario en México elaboró un modelo de unidad bioelectrónica del ser humano, para el estudio de la anatomía, fisiología y fisiopatología energéticas del cuerpo humano, teniendo acceso al conocimiento verdadero del orígen de las enfermedades y poderlas tratar.”

Richard, tan cachondo como siempre, se partiría de risa (de paso os recomiendo la divertida lectura de “¿Está usted de broma, Sr. Feynman?,” que yo cada par de años releo por placer).

FAQ sobre Medicina Cuántica: “contamos con facilidades de pago”.

Quizás haya que leer “Las ciencias médicas a las puertas del siglo XXI,” Revista Cubana de Medicina General Integral.

Lo que me lleva a “El uso de frecuencias de sucesos a priori no tiene a nivel individual respuestas adecuadas ni seguras. A nivel diagnóstico y terapéutico, la respuesta individual encierra otros riesgos y responsabilidades. Se debe entender que en el quehacer médico hay leyes pero también contingencias legislando sobre conciencias humanas en un mundo razonablemente indeterminista, lo cual preserva la libertad del enfermo y del médico. La medicina de hoy no se puede situar en los procesos puramente deterministas ni tampoco en los puramente aleatorios. Al azar debe dársele sentido cuantitativo, pero adaptando el intelecto a las conciencias individuales que estamos observando, al factor humano. En ciencia queremos saber si algo es verdad o falso.” Literalmente extraído de “Crítica médica a la lógica formal.”

Lo que, quizás he bebido un copa de más, me lleva más lejos a “¿ciencia se contrapone a método, o más bien el método forma parte de la definición de ciencia? ¿O la ciencia se define por los rasgos de una disciplina académica? ¿Qué relación hay entre medicina, salud pública y epidemiología? ¿Y qué relación entre epidemiología y estadística? ¿Son los problemas que la estadística frecuentista tiene para definir la significación o los tamaños muestrales el origen de su inconsistencia para abordar los problemas complejos? ¿La epidemiología se limita a la tarea de caracterizar la frecuencia y la distribución sin ser capaz de dar el salto analítico o interpretativo? ¿La necesidad de conjugar distintos saberes para interpretar o intervenir sobre problemas complejos reduce el estatuto metodológico o científico de cada saber específico? Y una salva final: ¿es la epidemiología un método científico positivista? ¿Es la epidemiología «el método» científico de las ciencias biomédicas? ¿Los usos definen la esencia?” Gaceta Sanitaria, Barcelona.

¿Es ciencia la medicina alternativa? Hay revistas internacionales dedicadas a ella, como Journal of Alternative and Complementary Medicine. Artículos “tan interesantes” como el de Lionel R. Milgrom, “A New Geometrical Description of Entanglement and the Curative Homeopathic Process,” The Journal of Alternative and Complementary Medicine, 14(3): 329-339, April 2008 , donde se estudia un macro-entrelazamiento cuántico entre el paciente, el médico y la medicina que posibilita la “cura” de la enfermedad.

La medicina cuántica está muy relacionada con la homeopatía moderna. Adquiere el lenguaje “ininteligible” (para el lego) de la física cuántica y lo entremezcla con los “chacras” y otros “palabros” para lograr la (auto)sanación del paciente. Mi “preferido” en este sentido es el trabajo de Lionel, que yo publicó en su serie de 6 artículos sobre “Patient-practitioner-remedy (PPR) entanglement:”

Part 1: a qualitative, non-local metaphor for homeopathy based on quantum theory, Homeopathy, Volume 91, Issue 4, October 2002, Pages 239-248.

Part 2: extending the metaphor for homeopathy using molecular quantum theory, Homeopathy, Volume 92, Issue 1, January 2003, Pages 35-43.

Part 3. Refining the quantum metaphor for homeopathy, Homeopathy, Volume 92, Issue 3, July 2003, Pages 152-160.

Part 4.: Towards classification and unification of the different entanglement models for homeopathy, Homeopathy, Volume 93, Issue 1, January 2004, Pages 34-42.

Part 5. Can homeopathic remedy reactions be outcomes of PPR entanglement? Homeopathy, Volume 93, Issue 2, April 2004, Pages 94-98.

Part 6. Miasms revisited: non-linear quantum theory as a model for the homeopathic process, Homeopathy, Volume 93, Issue 3, July 2004, Pages 154-158.

Conspicuous by its absence: the Memory of Water, macro-entanglement, and the possibility of homeopathy, Homeopathy, Volume 96, Issue 3, July 2007, Pages 209-219.

¿Qué que es lo que le pasa a emulenews hoy? Ni él mismo lo sabe, ¿estará enfermo?

¡No le habrán regalado un libro de “esos”!

El descubrimiento ha sido publicado en la revista Journal of Neurosurgery y lo han logrado científicos del Centro de Trauma Cerebral y Reparación (University of Pennsylvania School of Medicine).

El trasplante de neuronas para reparar el sistema nervioso ya se había logrado con animales, pero en la práctica existen pocas fuentes viables de neuronas que resulten útiles para su utilización clínica. Ahora el equipo de investigadores, liderado por Douglas H. Smith, demostró que se podía inducir el crecimiento de fibras nerviosas (conocidas como axones) en respuesta a una tensión mecánica.

Para conseguirlo, utilizaron neuronas de rata obtenidas de los ganglios de la raíz dorsal en recipientes repletos de nutrientes, conectando entre sí los axones de las neuronas de platos diferentes. Un sistema mecánico controlado por ordenador haría el resto, encargándose de ir separando lentamente los platos, a lo largo de varios días. El largo de los axones aumentó a la par del movimiento de las placas. Luego se incrustaron estas neuronas en una fina película de colágeno y se implantaron en bloque en una rata que tenía una lesión en la médula espinal.

Cuando pasaron 4 semanas del implante se observó cómo la geometría del bloque trasplantado se mantenía, y las neuronas sobrevivian, y lo más importante, los axones de los extremos de la lámina se habían conectado con los de la rata receptora, formando un puente de tejido nervioso funcional.

Ahora, el gran reto es conseguir esto humanos. El equipo de investigadores ya está trabajando en esta dirección, de hecho, ya han obtenido neuronas humanas cosechadas de 16 pacientes seleccionados. Las neuronas en cuestión han sobrevivido más de tres meses en el cultivo de los científicos y sus axones han crecido a razón de casi 1 milímetro por día, hasta alcanzar una longitud de 1 centímetro. Estas neuronas siguen siendo perfectamente funcionales.

De lograrse, el trasplante de neuronas puede cambiar drásticamente la calidad de vida de muchos pacientes con lesiones cerebrales, podrían interactuar con el sistema nervioso del paciente y cumplir perfectamente con las funciones que se encuentren dañadas.

Noticia relacionada.

Researchers Engineer First System of Human Nerve-Cell Tissue.

Artículo técnico: Jason H. Huang et al. “Harvested human neurons engineered as live nervous tissue constructs: implications for transplantation,” Journal of Neurosurgery, Volume 108, Number 2, February 2008 .

La internet ha cambiado el modo en el que se publica, lee, busca y cita a las publicaciones científicas. Un estudio de Evans, publicado hoy en Science, concluye que los investigadores citan a otros autores “mejor” que en el pasado: los artículos citados tienden a ser más recientes, se citan menos artículos, y la mayoría de estas citas son a un conjunto más reducido de revistas y artículos. ¿Por qué? Quizás como no disponían de buscadores automáticos y documentos repletos de hiperenlaces, las búsquedas individuales en la literatura impresa exponían a los investigadores a un conjunto de referencias mucho más amplio, por lo que las citas eran más dispersas, aunque con la ventaja de que también les exponía a un conjunto más amplio de ideas. Según el autor, la educación superior moderna sigue la línea marcada por el “publish or perish”. Cada vez dura menos años, es más especializada y culmina menos frecuentemente en una tesis doctoral de “verdad” en lugar de un mero álbum expositor de artículos.

El estudio de James A. Evans, “Electronic Publication and the Narrowing of Science and Scholarship,” Science, Vol. 321. no. 5887, pp. 395-399, 18 July 2008 , ha utilizado una base de datos con 34 millones de artículos de múltiples revistas disponibles online entre 1998 y 2005, que citan a artículos de 1945 a 2005. Se ha analizado el número de artículos (de una revista concreta) citadas por otros artículos en una año dado. Los resultados son consistentes en el tiempo, no dependen del año, e independientes del campo de conocimiento, es decir, independientes de la revista elegida.

Figura 1. Número de artículos citados en función del número de años que lleva la revista disponible online en Internet.

La mayoría de los estudios sobre cómo los investigadores realizan búsquedas bibliográficas demuestran que el uso de fuentes impresas está en declive respecto al uso de medios electrónicos ya que la mayoría prefiere éstos últimos a los primeros porque facilitan el proceso de búsqueda de información más focalizada [yo mismo era un ratón de hemeroteca hace 10 años y ahora soy un fisgón de internet]. Desafortunadamente esto también sus problemas. Por un lado, la mayoría de los investigadores se limita a búsqueda en un núcleo muy reducido en número de revistas en las que suponen que se publican los artículos más relevantes para su área de conocimiento. Por otro lado, la mayoría de los investigadores hace búsquedas bibliográficas basadas en un tópico o concepto concreto, con lo que el porcentaje de artículos leídos ha decrecido significativamente apareciendo muchas citas a artículos sólo por su título o por su resumen (abstract) sin conocimiento detallado de su contenido.

Figura 2. Número de artículos citados en función del número de años que lleva la revista disponible online.

Sin entrar en los detalles del estudio del que hemos ilustrado dos Figuras representativas, los resultados ilustran un cambio en la manera en la que se cita artículos desde la introducción de los servidores electrónicos de revistas. Incluso teniendo en cuenta que cada día son más los artículos del pasado que pasan a formato online, los artículos recientes citan con preferencia a artículos recientes. Más aún, las revistas electrónicas están provocando que las ideas que no alcanzan cierto consenso científico rápidamente, reflejando las opiniones más citadas o preferidas por la mayoría, son rápidamente olvidadas ante la borágine de las ideas que sí lo alcanzan.

Irónicamente, uno de los grandes valores de la literatura impresa respecto a la electrónica es que está mal indexada, lo que obliga a los investigadores a ojear artículos aparentemente no relacionados, a rebuscar más en el pasado y a comparar ideas más diversas.

Todo el mundo “sabe” que Einstein fue un fracasado escolar. De hecho, es el arquetipo del genio que fue un mal estudiante. Estos días, en los que tanto se habla de la calidad de la docencia, a raíz de la convergencia al sistema de educación superior EEES, muchos amigos me lo han recordado. Sin embargo, eso es falso, como he tenido que corregirles.

En la escuela primaria fue buen estudiante; como escribió su madre a su abuela: “Albert… otra vez fue número uno; su boletín (de notas) fue brillante”. También lo fue en la escuela secundaria (Gymnasium) donde destacó en todo excepto en deportes. Con quince años ya leía y comprendía los escritos de Kant, libros de matemática superior y libros de texto de física. Intentó ingresar en la Universidad Politécnica de Zürich con sólo 16 años, pero suspendió en lengua extranjera y en biología, aunque destacó en matemáticas y física. Tras un año en una escuela secundaria suiza, logró superar el examen de ingreso, siendo el más joven de su promoción.

En la Universidad rara vez asistía a clase; Grossman, un amigo, le facilitaba sus apuntes. La mayor parte del tiempo trabajaba en el laboratorio de física, aunque su profesor de física, Weber, no recibía con entusiasmo sus proyectos. Con 21 años, en 1900, se graduó con notas brillantes, junto con tres compañeros, quienes obtuvieron el puesto de asistente en la universidad. Weber se lo rehusó. Él nunca se lo perdonaría. Mileva, su futura mujer, no logró graduarse.

Le costó un año encontrar su primer puesto de trabajo, profesor en una pequeña escuela privada. Presentó una propuesta de tesis doctoral que fue rechazada. Logró un puesto en la oficina suiza de patentes, gracias a la intervención del padre de Grossman, aunque de una categoría inferior a la que él concursaba. Murió su padre, se casó con Mileva y tuvo un hijo. En 1905 completó su tesis doctoral, y escribió los artículos que lo convertirían en el físico teórico más famoso de la historia.

Entonces, por qué se habla del fracaso escolar de Einstein. Quizás, porque Einstein, de niño, tardó en comenzar a hablar y su familia llegó a pensar que era retrasado. Sin embargo, él afirmó más tarde que, con dos o tres años, su propósito era hablar con frases completas, que las ensayaba en voz baja y, sólo si le parecía que estaban bien construidas, las pronunciaba en voz alta.

¿Presentó una tesis doctoral que fue rechazada?

El “primer” director de tesis de Einstein fue Weber (antes de 1901). Einstein le propuso medir la velocidad de la luz utilizando un interferómetro, parecido al del experimento de Michelson-Morley, sin embargo, Weber rechazó la propuesta. Einstein le propuso entonces investigar el efecto del calor en la conductividad eléctrica de un material. Weber también lo rechazó. Finalmente, Einstein desarrolló un trabajo “normalito” sobre la conducción de calor, que, de nuevo, Weber rechazó, ¡¡ porque el papel en el que estaba escrita la tesis no era de “buena” calidad !!

Obviamente, Einstein decidió cambiar de director de tesis (sobre 1901). Kleiner, del politécnico de Zurich tampoco “se llevaba bien” con el “pobre” de Einstein. Le propuso la extensión de la teoría de las fuerzas intermoleculares de los líquidos a los gases. Escribió la tesis y Kleiner, tras varios meses de lectura, la rechazó, porque criticaba demasiado a Boltzmann y otros “popes” de la época.

Sí, sobre 1905, Einstein le propuso a Kleiner una tesis sobre la electrodinámica de los cuerpos en movimiento (la teoría de la relatividad especial). También fue rechazada, según dicen porque los “profesores” que la revisaron no la entendieron, aunque quizás sea más razonable pensar que lo fue por ser demasiado “teórica”.

Para el que no lo sepa, la tesis de Einstein de 1905 fue sobre la medida de las dimensiones moleculares de moléculas de azúcar, breve, y que fue finalmente aceptada por Kleiner y colaboradores.

¡¡ Qué tiempos aquellos !!

Einstein en España.

Más sobre Einstein en España.

Einstein en Zaragoza.

Einstein en Barcelona.

La cena “polaca” de Einstein.

Me ha gustado el artículo de T. Padmanabhan, “DARK ENERGY AND ITS IMPLICATIONS FOR GRAVITY,” ArXiv preprint, 16 July 2008 . El artículo propone que los problemas de qué es la energía oscura en el universo y el problema de la constante cosmológica son completamente independientes entre sí. La idea me gusta. Permítaseme parafresear su introducción.

El universo más simple que podemos imaginar contiene solamente materia visible (bariones) y radiación (energía). En el modelo matemático más sencillo del universo en expansión desde el big bang hay una densidad crítica (ρc) por encima de la cual el universo es abierto y se expande eternamente y por debajo de la cual es cerrado y acabará contrayéndose en un big crunch. La densidad de la materia bariónica (ρb) y de la radiación (ρr) se normalizan respecto a la densidad crítica dando lugar al parámetro adimensional Omega, sea Ob (=ρb/ρc) u Or (=ρr/ρc) para la materia bariónica y para la radiación, respectivamente, siendo O el valor total para el universo. Si O>1 es abierto, si O<1 es cerrado, y si O=1 es el universo es plano. Hasta principios de los 1980s se pensaba que el valor correcto del parámetro O (densidad de “contenido” del universo) era menor de la unidad, aunque algunos autores “gustaban” de un valor O=1.

Sin embargo, las observaciones astronómicas desde mediados de los 1970s indican que la mayoría de la materia en el universo no es bariónica, no es visible, es materia oscura. Es decir, la densidad de materia Om en el universo es fundamentalmente materia oscura Oo en lugar de materia visible Ob. Más aún, a principios de los 1980s se desarrolló el modelo inflacionario, el universo en sus primeros instantes sufre una expansión exponencial, que tiene como consecuencia la preferencia por un valor O=1 (valor crítico). Durante los 1980s, los cosmólogos teóricos preferían un modelo con O=Oo=1, aunque los datos astronómicos de los cosmólogos observacionales sugerían que Om=Oo=0.2-0.3. Sólo a finales de los 1980s y principios de los 1990s algunos teóricos sugirieron que podría existir alguna forma o componente de densidad de energía “oscura” Oe que reconciliará el resultado inflacionario O=1 con los datos experimentales Om=0.2-0.3. Los primeros análisis indicaban que este tipo de “energía” estaba distribuida uniformemente por todo el universo y que tenía una presión negativa (responde de forma antigravitatoria).

Este era el estado de las cosas hasta finales de 1990s, cuando las observaciones de supernovas Ia como candelas para medir distancias grandes mostró que la expansión del universo actualmente se está acelerando, lo que se puede explicar con una componente de energía oscura Oe=0.60-0.75. Cuando se trata esta energía como un fluido, su presión es negativa (si su densidad de energía es positiva). La elección más sencilla para explicar esta energía oscura es la existencia de una constante cosmológica en las ecuaciones de Einstein de la gravedad. Este término en dichas ecuaciones actúa como un fluido con presión negativa, compatible con las observaciones.

Dibujo20130207 composition of the cosmos

El resultado es un universo con una composición, cuando menos, extraña. La densidad de radiación (energía “visible”) es ridícula, Or=0.00005, la densidad bariónica (materia “visible”) es muy pequeña, Om=0.04, la densidad no bariónica (materia “oscura”) tiene Oo=0.26 y la energía oscura tiene Oe=0.70. Como no sabemos qué es la materia oscura y no tenemos una explicación “buena” para la energía oscura, el 99.6% del universo no es desconocido.

En relatividad general la aceleración de la expansión del universo está controlada por la suma de la densidad más 3 veces la presión, (ρ+3p) y no solamente la densidad ρ. Cuando (ρ+3p)>0, la gravedad total resultante es atractiva y la expansión se desacelera. Por el contrario, cuando (ρ+3p)<0 la gravedad muestra efectos “repulsivos” y la expansión del universo se acelera. En otras palabras, si la energía oscura domina sobre la materia, genera suficiente presión negativa para que el universo acelere su expansión. Ese es el resultado experimental observado por el corrimiento al rojo del espectro de las supernovas.

El nuevo modelo de “cómo parece que son las cosas” es muy bueno a la hora de predecir cosas y concuerda con un gran número de observaciones cosmológica independientes, las mas importantes son las siguientes:(a) Pequeñas fluctuaciones cuánticas en la distribución de energía en los inicios del universo fueron amplificados por una inestabilidad gravitatoria lo que las llevó a formar el núcleo de las futuras grandes estructuras del universo (galaxias, cúmulos, etc.) que existen hoy en día. La amplificación se produjo gracias a un periodo inflacionario de expansión exponencial. Las fluctuaciones cuánticas amplificadas son las fluctuaciones del campo de energía responsable de ésta, llamado campo inflatón, cuya naturaleza exacta actualmente es una incógnita. (b) Aunque desconocemos el modelo exacto del inflatón, con lo que carece de poder predictivo per se, los posibles modelos tienen parámetros ajustables que permiten que el campo de fluctuaciones cuánticas tenga un espectro gaussiano caracterizado por un espectro de potencia compatible con las observaciones del fondo cósmico de microondas obtenidas por la sonda WMAP. Las observaciones de gran precisión de WMAP confirman este escenario (o mejor, el escenario se puede adaptar fácilmente a las observaciones). (c) Simulaciones numéricas de la posible evolución de las pequeñas perturbaciones en el campo del inflatón permiten observar universos con características estadísticas para la materia bariónica (la visible) muy similares (estadísticamente, he dicho) a las observadas astronómicamente. (d) Más aún, la cantidad de deuterio (hidrógeno pesado) estimada en el universo es compatible con una nucleosíntesis primordial en un universo con los parámetros previamente descritos. La nucleosíntesis “prueba” el universo cuando tenía sólo unos pocos minutos, mientras que el fondo cósmico de microondas lo prueba con varios cientos de miles de años. Que ambas observaciones sean compatibles es una prueba muy importante de lo razonable del modelo.

En palabras de Padmanabhan, “aunque no entendemos nuestro universo, hemos tenido mucho éxito en parametrizar nuestra ignorancia en términos de unos números bien elegidos.”

El mayor problema de nuestra comprensión de nuestro universo es el la energía oscura. El modelo más sencillo para la energía oscura considera que no es un fluido de presión negativa (que tendría una ecuación de estado p=w.ρ con w=−0.8 ) sino que es un valor no nulo de la constante cosmológica λ (con ecuación de estado p=−ρ, es decir, w=−1). Sin embargo, esto acarrea un nuevo problema, el problema de la constante cosmológica. Si adimensionalizamos las ecuaciones de Einstein para obtener un escala “natural” para la constante cosmológica, utilizando unidades de Planck, el único valor razonable para la escala de λ es 10^(−123), sí, un valor 123 órdenes de magnitud menor que la unidad. Esto ha llevado a mucha gente a creer que la constante cosmológica es exactamente cero. Pero las observaciones indican que su valor es no nulo. ¿Por qué la constante cosmológica tiene un valor no nulo tan pequeño?

Normalmente el valor nulo de una constante está relacionado con una simetría en las ecuaciones (alguna magnitud que se conserva de forma exacta). Sin embargo, no se conoce tal magnitud asociada a λ=0 (no la hay en las ecuaciones de Einstein). Por ejemplo, que el fotón tenga masa en reposo exactamente cero está relacionada con la simetría o invarianza de fase en el electromagnetismo (electrodinámica cuántica). La supersimetría, aún no descuberta experimentalmente pero que está en los objetivos del próximo LHC del CERN, asegura que λ=0, a alta energía, pero esta simetría está rota a baja energía y no puede explicar dicho valor en un contexto cosmológico.

Finalmente, hay otro problema importante en relación a la constante cosmológica que aparece frecuentemente en la literatura científia, ¿por qué ahora? Por qué en “nuestra” época del universo la contribución de la energía oscura a la densidad del contenido del universo (la enegía oscura) es comparable a la energía del resto de la materia del universo. hat could be called the “why now” problem of the cosmological constant. Según, Padmanabhan una teoría capaz de predecir el valor numérico actual de λ, debe también resolver el problema de por qué ahora su valor es comparable al resto de la densidad de energía. Actualmente tal teoría no existe.

http://www.redbubble.com/people/ctoledo
http://www.redbubble.com/people/ctoledo

Actualmente no tenemos ninguna teoría que explique los valores de las densidades de las componentes del universo. Ni ρr cuyo valor lo conocemos por la temperatura del fondo de microondas, para la que no tenemos ninguna teoría que explique por qué vale 2.73 ºK cuando han transcurrido cierto número de miles de millones de años desde que se formaron las galaxias. Ni tampoco tenemos ninguna teoría que explique el cociente de ρr/ρb, ni … En resumen, necesitamos nuevos datos experimentales pero también necesitamos nuevas “mentes”, nuevos “genios” que pongan los puntos sobre las íes en estos acuciantes problemas cosmológicos.

Supongamos una estrella como el sol va agotando su combustible nuclear convirtiendo su hidrógeno a helio y éste a carbono, oxígeno y finalmente hierro llegando un momento en que el calor producido por las reacciones nucleares es poco para producir una dilatación de dicho sol y compensar así a la fuerza de la gravedad. Entonces ese sol se colapsa aumentando su densidad, siendo frenado ese colapso únicamente por la repulsión entre las capas electrónicas de los átomos. Pero si la masa de ese sol es lo suficientemente elevada se vencerá esta repulsión pudiéndose llegar a fusionar los protones y electrones de todos los átomos, formando neutrones y reduciéndose el volumen de la estrella a tal punto de no quedar ningún espacio entre los núcleos de los átomos. Ese sol se convertiría en una esfera de neutrones y por lo tanto tendría una densidad elevadísima. Sería lo que se denomina estrella de neutrones.

Naturalmente las estrellas de neutrones no se forman tan fácilmente, ya que al colapsarse la estrella en algunos casos la energía gravitatoria se convierte en calor rápidamente provocando una gran explosión. Se formaría entonces una nova o una supernova expulsando en la explosión gran parte de su material, con lo que la presión gravitatoria disminuiría y el colapso podría detenerse. Así se podría llegar a lo que se denomina enanas blancas en las que la distancia entre los núcleos atómicos ha disminuido de modo que los electrones circulan libres por todo el material, y es la velocidad de movimiento de estos lo que impide un colapso mayor. Por lo tanto la densidad es muy elevada pero sin llegar a la de la estrella de neutrones. Pero la velocidad de los electrones tiene un límite: la velocidad de la luz; y cuando el equilibrio estelar exige una velocidad de los electrones superior a la velocidad de la luz, el colapso a estrella de neutrones es inevitable.

Se ha calculado que por encima de 2’5 soles de masa, una estrella de neutrones se colapsaría más aún fusionándose sus neutrones. Esto es posible debido a que el principio de exclusión de Pauli por el cual se repelen los neutrones tiene un límite cuando la velocidad de vibración de los neutrones alcanza la velocidad de la luz.

Debido a que no habría ninguna fuerza conocida que detuviera el colapso, este continuaría hasta convertir la estrella en un punto creándose un agujero negro. Este volumen puntual inplicaría una densidad infinita, por lo que fue rechazado en un principio por la comunidad científica, pero S. Hawking demostró que esta singularidad era compatible con la teoría de la relatividad general de Einstein.

Entonces, un agujero negro es un cuerpo estelar colapsado donde su masa es tan densa que genera un campo de gravedad de tal intensidad que no deja escapar ni la luz.

Pero, entonces, ¿qué es un agujero negro? Un agujero negro es un cuerpo donde su masa es tan densa que genera un campo de gravedad de tal intensidad que no deja escapar ni la luz.

Algunas estrellas cuando han consumido su energía atómica colapsan sobre si mismas, comprimiéndose de tal forma que su fuerza gravedad aumenta con la reducción del tamaño, su enorme gravedad atrae la masa circundante y llega a comprimirse tanto que de su interior no deja escapar la luz.

Están rodeados de una “frontera” esférica que permite que la luz entre pero no salga.

Hay dos tipos de agujeros negros: cuerpos de alta densidad y poca masa concentrada en un espacio muy pequeño, y cuerpos de densidad baja pero masa muy grande, como pasa en los centros de las galaxias.

Si la masa de una estrella es más de dos veces la del Sol, llega un momento en su ciclo en que ni tan solo los neutrones pueden soportar la gravedad. La estrella se colapsa y se convierte en un agujero negro.

Si un componente de una estrella binaria se convierte en agujero negro, toma material de su compañera. Cuando el remolino se acerca al agujero, se mueve tan deprisa que emite rayos X. Así, aunque no se puede ver, se puede detectar por sus efectos sobre la materia cercana.

Los agujeros negros no son eternos. Aunque no se escape ninguna radiación, parece que pueden hacerlo algunas partículas atómicas y subatómicas.

Alguien que observase la formación de un agujero negro desde el exterior, vería una estrella cada vez más pequeña y roja hasta que, finalmente, desaparecería. Su influencia gravitatoria, sin embargo, seguiría intacta.

Como en el Big Bang, en un agujero negro se da una singularidad, es decir, las leyes físicas y la capacidad de predicción fallan. En consecuencia, ningún observador externo puede ver qué pasa dentro.

Las ecuaciones que intentan explicar una singularidad de los agujeros negros han de tener en cuenta el espacio y el tiempo. Las singularidades se situarán siempre en el pasado del observador (como el Big Bang) o en su futuro (como los colapsos gravitatorios). Esta hipótesis se conoce con el nombre de “censura cósmica”.

Los agujeros negros más masivos, residen en el centro de las galaxias. Entre aquellos a los que se ha podido estudiar, él mas masivo se encuentra en la galaxia elíptica M87, que pertenece el cumulo galáctico de Virgo.

Mediciones hechas con el Telescopio Espacial Hubble sugieren una masa de 3 mil millones de Soles (masa del sol = 1.9742×10*27 toneladas) para el agujero negro en M87. Espectros tomados por el Telescopio Espacial muestran que el gas a 60 años luz del centro de M87, rota a una velocidad de 2 millones de kilómetros por hora, y que su velocidad es mayor cerca del centro.

Y solo un objeto tan masivo puede evitar que el gas rotando a esa velocidad no se escape al espacio.

Utilizando información del Observatorio Chandra y de antiguos satélites de rayos X , un equipo de investigadores estudió una docena de “novas de rayos X” — sistemas que contienen una estrella semejante al sol alrededor de un agujero negro o de una estrella de neutrones. Comparando el nivel de energía de diferentes tipos de novas de rayos X inactivas, el equipo del Chandra concluyó que los sistemas que podrían albergar a agujeros negros emitían sólo el uno por ciento de la energía que emiten los sistemas con estrellas de neutrones.

“Al detectar tan poca energía de estos potenciales agujeros negros, tenemos nuevas pruebas de que los horizontes de eventos existen”, dice Michael García del Centro Harvard-Smithsonian para la Astrofísica en Cambridge, Massachusetts. “Es un poco raro decir que hemos descubierto algo cuando hemos visto casi nada, pero de hecho, esto es lo que ha pasado”.

Si una estrella de neutrones de superficie sólida cae, la energía será liberada cuando el material que recibe el impacto choque contra esa superficie. En cambio, si el objeto aumentado es un agujero negro, sólo una pequeña parte de la energía puede escapar antes de cruzar el horizonte de eventos y desaparecer para siempre.

“Ver escapar esta cantidad de energía, aunque sea pequeña, del agujero negro es como sentarse contra la corriente de un río y observar como el agua parece desvanecerse por el borde”, dice Ramesh Narayan, también del equipo del Chandra. “Lo que mejor explica nuestras observaciones es que estos objetos tienen horizontes de eventos y que por lo tanto son agujeros negros”.

INTRODUCCIÓN

En su concepción inicial, un agujero negro era un objeto con una fuerza de gravedad en su superficie tan grande que nada podía escapar de él; ni siquiera la luz si es que ésta estuviera afectada por la gravedad (cosa que antes no se sabía). Antes de medir la velocidad de la luz y de la teoría de la relatividad, por medio de la cual se demostró que nada puede sobrepasar la velocidad de la luz, se pensaba que un cuerpo podía alcanzar una velocidad infinita y por lo tanto el agujero negro era un cuerpo en el que la velocidad de escape era infinita también. Esto sólo podía ocurrir cuando se tratara de un astro de masa infinita o de densidad infinita. Se trataba de casos fuera de la lógica y por ello no se le dio importancia al asunto siendo aparcado en el olvido por la mayoría de los científicos.

Pero con la teoría de la relatividad especial la velocidad máxima que puede alcanzar un cuerpo es la de la luz, y entonces se puede pensar que el agujero negro ya puede tener un volumen y una masa finitas, puesto que la velocidad de escape será finita.

Como veremos la relatividad especial nos lleva otra vez a un agujero negro puntual, debido a que la velocidad de escape desde el punto de vista relativista nunca puede superar la velocidad de la luz.

De todos modos ya se había descubierto que la luz no es simplemente una partícula, y por ello no podemos aplicarle la idea de velocidad de escape. Pero es desde el punto de vista de la relatividad general de Einstein cuando se deducen las consecuencias más interesantes para los cuerpos de masa extrema, volviendo a ser factible la idea de un agujero negro no puntual. Aparece el llamado horizonte de sucesos, región del espacio alrededor del agujero cuya curvatura en el espacio tiempo impide que nada escape; ni siquiera la luz.

Además ya no se piensa que el hecho de que un cuerpo colapse hasta ocupar el volumen de un punto sea algo absurdo. Para aclarar ideas comenzaremos viendo como se pueden formar los agujeros negros, continuando luego con un análisis relativista de los agujeros negros.

CÓMO SE FORMAN LOS AGUJEROS NEGROS

Supongamos una estrella como el sol que va agotando su combustible nuclear convirtiendo su hidrógeno a helio y este a carbono, oxígeno y finalmente hierro llegando un momento en que el calor producido por las reacciones nucleares es poco para producir una dilatación del sol y compensar así a la fuerza de la gravedad. Entonces el sol se colapsa aumentando su densidad, siendo frenado ese colapso únicamente por la repulsión entre las capas electrónicas de los átomos. Pero si la masa del sol es lo suficientemente elevada se vencerá esta repulsión pudiéndose llegar a fusionarse los protones y electrones de todos los átomos, formando neutrones y reduciéndose el volumen de la estrella no quedando ningún espacio entre los núcleos de los átomos. El sol se convertiría en una esfera de neutrones y por lo tanto tendría una densidad elevadísima. Sería lo que se denomina estrella de neutrones.

Naturalmente las estrellas de neutrones no se forman tan fácilmente, ya que al colapsarse la estrella la energía gravitatoria se convierte en calor rápidamente provocando una gran explosión. Se formaría una nova o una supernova expulsando en la explosión gran parte de su material, con lo que la presión gravitatoria disminuiría y el colapso podría detenerse. Así se podría llegar a lo que se denomina enanas blancas en las que la distancia entre los núcleos atómicos a disminuido de modo que los electrones circulan libres por todo el material, y es la velocidad de movimiento de estos lo que impide un colapso mayor. Por lo tanto la densidad es muy elevada pero sin llegar a la de la estrella de neutrones. Pero la velocidad de los electrones tiene un límite: la velocidad de la luz; y cuando el equilibrio estelar exige una velocidad de los electrones superior a la velocidad de la luz, el colapso a neutrones es inevitable.

Se ha calculado que por encima de 2’5 soles de masa, una estrella de neutrones se colapsaría más aún fusionándose sus neutrones. Esto es posible debido a que el principio de exclusión de Pauli por el cual se repelen los neutrones tiene un límite cuando la velocidad de vibración de los neutrones alcanza la velocidad de la luz.

Debido a que no habría ninguna fuerza conocida que detuviera el colapso, este continuaría hasta convertir la estrella en un punto creándose un agujero negro. Este volumen puntual inplicaría una densidad infinita, por lo que fue rechazado en un principio por la comunidad científica, pero S. Hawking demostró que esta singularidad era compatible con la teoría de la relatividad general de Einstein.

Einstein decía que a medida que un cuerpo se acerca a un astro el tiempo transcurre más despacio para este cuerpo, en función de la velocidad de escape del astro (desde un punto de vista clásico), de modo que cuando se llegue a una distancia tal que la velocidad de escape clásica sea igual a la velocidad de la luz, el tiempo se detendrá para el objeto situado en ese lugar.

Aparece así una superficie esférica alrededor del agujero negro en la cual el tiempo se detiene. Esta superficie esférica es el llamado horizonte de sucesos del agujero negro.

Al atravesar este horizonte el tiempo vuelve a existir, pero con componentes imaginarias (el cálculo del tiempo transcurrido en el interior del horizonte de sucesos nos lleva a una raíz cuadrada de un número negativo), lo cual nos lleva a pensar que el tiempo transcurre en el interior de un agujero negro, tal vez en una dimensión perpendicular, tanto a las tres espaciales como a la temporal normal.

Además la teoría de la relatividad general nos dice que el espacio se curva alrededor de una masa de tal forma que un rayo de luz que pasara rozando esa masa se desviaría el doble de lo que lo haría si estuviera afectado por la gravedad desde un punto de vista clásico (como partícula).

Se calcula que para dicho radio la curvatura del espacio sería tal que la luz quedaría atrapada en el agujero. De esta forma al acercarnos al horizonte de sucesos las tres coordenadas espaciales normales se curvan de tal forma que cualquier movimiento en el interior del agujero se produciría en dirección hacia el centro de éste. De este modo todo lo que traspase el horizonte de sucesos no podrá salir jamás.

DETECCIÓN DE AGUJEROS NEGROS

Tal y como hemos descrito un agujero negro nunca podríamos observar uno de ellos ya que no reflejarían ni emitirían ningún tipo de radiación ni de partícula. Pero hay ciertos efectos que sí pueden ser detectados. Uno de estos efectos es el efecto gravitatorio sobre una estrella vecina.

Supongamos un sistema binario de estrellas (dos estrellas muy cercanas girando la una alrededor de la otra) en el cual una de las estrellas es visible y de la cual podemos calcular su distancia a la Tierra y su masa. Esta estrella visible realizará unos movimientos oscilatorios en el espacio debido a la atracción gravitatoria de la estrella invisible. A partir de estos movimientos se puede calcular la masa de la estrella invisible.

Si esta estrella invisible supera una masa de unos 2’5 veces la masa de nuestro sol, tendremos que suponer que se trata de un agujero negro.

Además si la estrella visible está lo suficientemente cerca, podría ir cediéndole parte de su masa que caería hacia el agujero negro siendo acelerada a tal velocidad que alcanzaría una temperatura tan elevada como para emitir rayos X. Pero esto también sucedería si se tratara de una estrella de neutrones. Un ejemplo de objeto detectado que cumple las dos condiciones primeras expuestas es la estrella binaria llamada Cygnus-X1, que es una fuente de rayos X muy intensa formada por una estrella visible y una estrella invisible con una masa calculada que supera los 2’5 masas solares.

Los astrónomos del RGO encontraron importante evidencia de que ese conjunto binario, llamado Cygnus X-1 (lo que significa que es la primera fuente de rayos-X descubierta en la constelación de Cygnus), realmente contiene un agujero negro.

Aparte de esto también hay que tener en cuenta que S. Hawking dedujo que un agujero negro produciría partículas subatómicas en sus proximidades, perdiendo masa e irradiando dichas partículas, lo cual sería otro modo de detección. Pero no debemos pensar que el agujero perdería masa, ya que un agujero negro de unas pocas masas solares emitiría una radiación inferior a la radiación de fondo del universo, con lo cual recibiría más energía de la que emitiría, y por lo tanto aumentaría su masa.

EL AGUJERO NEGRO NO PUNTUAL

En el apartado sobre la formación de los agujeros negros hablamos de que una estrella podría contraerse hasta ser un simple punto. Esto representaba una singularidad tanto de densidad como de curvatura del espacio (densidad y curvatura infinitas), además de tiempos imaginarios en su interior.

Sin embargo un cuerpo que caiga hacia un agujero negro tardaría un tiempo infinito, desde el punto de vista de un observador suficientemente alejado, ya que las longitudes se contraen a medida que nos acercamos al horizonte de sucesos y entonces, aunque la velocidad se mantenga desde el punto de vista del observador que cae, ésta irá disminuyendo hacia cero para el observador externo. Así cabe la posibilidad de que nunca llegara a formarse un agujero negro.

Pero además de esto, se me ocurre una posibilidad de que sí exista algo que pueda detener este colapso final hacia un punto (si ésto fuera posible) y esto es la detención del tiempo.

De aquí tenemos que, en el supuesto de que a pesar de todo la materia pudiera colapsarse y sobrepasar el horizonte de sucesos, los problemas de singularidad se podrían evitar basándonos en el hecho de que en el horizonte de sucesos el tiempo se detiene. Recordemos que según la relatividad general la velocidad de la luz disminuye a medida que se acerca a una masa (hecho comprobado al envíar y recibir señales de radio a sondas situadas casi detrás del Sol). Entonces, si la luz se frena hasta detenerse, también se detendrá toda caida y movimiento al acercarse al horizonte de sucesos.

Supongamos un astro cuya distribución de densidades interiores sea tal que la situación que caracteriza a un horizonte de sucesos se dé en todo el volumen del astro.

En este caso el tiempo estaría detenido en todo el volumen de astro (el horizonte de sucesos sería una esfera, no una superficie esférica) y por lo tanto el colapso a partir de este punto no ocurriría aún cuando se hubiera superado la presión soportable por los neutrones, y los neutrones ya estuvieran fusionándose.

Así en una estrella colapsándose sus neutrones, si se consiguiera esta distribución de densidades se detendría el colapso al detenerse el tiempo.

Para obtener dicha distribución debemos tener en cuenta que la gravedad en el interior de un astro es igual a la que tendría si le quitáramos una corona esférica justo por encima del punto en que queremos calcular la intensidad del campo gravitatorio (ya que en el interior de una corona esférica el campo gravitatorio queda anulado). Así tenemos que los cálculos son los mismos que para un punto en la superficie pero teniendo en cuenta sólo el volumen que queda por debajo de dicho punto.

A mayor profundidad tendremos mayor densidad inversamente proporcional al cuadrado del radio. Esto nos lleva a una densidad infinita en el centro del astro, pero debemos tener en cuenta que cuando el radio se hace cero la masa también tiende a cero, lo cual hace esta situación más aceptable.

Podría ser que este tipo de agujero negro fuera común en todos los agujeros negros, ya que en una implosión estelar la fusión de neutrones empezaría a realizarse en el centro de la estrella, y la situación de tiempo detenido empezaría a darse en el centro de la estrella impidiendo la fusión de más materia en ese punto. Esta situación se iría extendiendo capa a capa hacia afuera creándose una distribución de densidades como la que he calculado, y por lo tanto un agujero negro sólido desde el horizonte de sucesos hacia el interior. Sin singularidad.

Agujeros negros: ¿Se pueden realmente medir?

Tal como lo describe Ted Bunn en “Black Holes FAQ”, no podemos hablar de una única medida de grandeza de los agujeros negros ni en general de nada que exista; sino que debemos de tomar en cuenta el espacio que ocupa en el universo y la masa que posee.

Masa de los agujeros negros

Si analizamos la segunda propiedad debemos de considerar que hasta el momento lo que se sabe de la masa que poseen los agujeros negros es que esta no tiene límites conocidos (ningún máximo ni mínimo). Pero si analizamos las evidencias actuales podemos considerar que dado que los agujeros negros se forman a partir de la muerte de estrellas masivas debería de existir un límite máximo del peso de los agujeros negros que sería a lo mucho igual a la masa máxima de una estrella masiva. Dicha masa límite es igual a diez veces la masa de nuestro Sol (más o menos 1×1031 kilogramos ó 10,000,000,000,000,000,000,000,000,000,000 kilogramos). En los últimos años se ha encontrado evidencia de la existencia de agujeros negros en el centro de galaxias masivas. Se cree a partir de esto que dichos agujeros negros poseerían una masa de un millón de soles).

Tamaño de los agujeros negros

Si analizamos el tema del espacio que ocupa un agujero negro debemos de considerar como parámetro principal una variable matemática denominada el radio de Schwarzchild el cual es el radio del horizonte de sucesos que comprende al agujero negro (dentro de este radio la luz es absorbida por la gravedad y cualquier cuerpo es absorbido con una fuerza gravitatoria infinita hacia el centro del agujero negro no pudiendo escapar de éste). Ahora bien los científicos han logrado hallar una relación directa entre la masa y el espacio ocupado de un agujero negro, esto significa que si un agujero negro es diez veces más pesado que cualquier estrella ocupará también diez veces el espacio ocupado por esa estrella. Para darnos una idea más clara compararemos el tamaño del sol con un agujero negro súper masivo, el sol posee un radio de aproximadamente 700,000 kilómetros mientras que el agujero negro súper masivo poseerá un radio de a lo más cuatro veces más grande que el del Sol.

¿Existen los agujeros blancos?

Si se analizan en detalle las ecuaciones de las que se derivan las propiedades relativistas vamos a encontrar siempre que teóricamente existe una solución simétrica para cada una de ellas, es decir, así como tenemos la idea de que para la materia existe la antimateria, o a lo negro se opone lo blanco, de igual manera podemos deducir teóricamente que debe de existir algo que posea características completamente opuestas a la de los agujeros negros.

Para este caso, sabemos que los agujeros negros son definidos como un horizonte de sucesos dentro del cual todo objeto no importando su estado es atrapado indefectiblemente por una fuerza gravitatoria inmensa (casi infinita), por oposición podemos entender que debe de existir (al menos teóricamente) un agujero blanco con un horizonte de sucesos en donde todo lo que esté dentro de él será violentamente repelido, tal vez con una fuerza inmensa (casi infinita) esto nos lleva a pensar en las ideas (nuevamente las cito) de la materia y la antimateria. Pero lo interesante está en que si bien las matemáticas efectivamente pueden darnos una respuesta simétrica tan controversial, también es cierto que un horizonte de sucesos con esas características es improbable y hasta el momento no ha habido descubrimiento que contradiga su no existencia real.

¿Y los agujeros de gusano?

Los agujeros de gusano son consecuencia de un agujero negro que se encuentra girando con cargas determinadas, esto provocaría que esté simultáneamente interactuando con un agujero blanco, la combinación de ambos es denominado un agujero de gusano.

Sin embargo, como hemos visto, es improbable que los agujeros blancos existan y si alguien cae en un agujero negro llegará a dirigirse hacia el centro de la singularidad, pero no atravesaría un agujero de gusano pues este requeriría que existiese un agujero blanco. Pero teóricamente se piensa que si éste existiera habría una conexión entre la ubicación del agujero negro y como salida se tendría al lugar en donde está ubicado el agujero blanco.

Según Stephen Hawking, un agujero de gusano se formaría si el espacio-tiempo tuviera una forma cilíndrica (salvando las diferencias de 2 a 4 dimensiones) con un asa, donde estaría el agujero de gusano. En los puntos donde el asa tocara el cilindro, serÍan puntos de estacamiento temporal. Dicho agujero de gusano uniría puntos del universo espacio-temporalmente distantes. Esos agujeros podrían ser utilizados para solventar el problema de las enormes distancias astronómicas, además de viajar en el tiempo.