Me ha gustado el artículo de T. Padmanabhan, “DARK ENERGY AND ITS IMPLICATIONS FOR GRAVITY,” ArXiv preprint, 16 July 2008 . El artículo propone que los problemas de qué es la energía oscura en el universo y el problema de la constante cosmológica son completamente independientes entre sí. La idea me gusta. Permítaseme parafresear su introducción.

El universo más simple que podemos imaginar contiene solamente materia visible (bariones) y radiación (energía). En el modelo matemático más sencillo del universo en expansión desde el big bang hay una densidad crítica (ρc) por encima de la cual el universo es abierto y se expande eternamente y por debajo de la cual es cerrado y acabará contrayéndose en un big crunch. La densidad de la materia bariónica (ρb) y de la radiación (ρr) se normalizan respecto a la densidad crítica dando lugar al parámetro adimensional Omega, sea Ob (=ρb/ρc) u Or (=ρr/ρc) para la materia bariónica y para la radiación, respectivamente, siendo O el valor total para el universo. Si O>1 es abierto, si O<1 es cerrado, y si O=1 es el universo es plano. Hasta principios de los 1980s se pensaba que el valor correcto del parámetro O (densidad de “contenido” del universo) era menor de la unidad, aunque algunos autores “gustaban” de un valor O=1.

Sin embargo, las observaciones astronómicas desde mediados de los 1970s indican que la mayoría de la materia en el universo no es bariónica, no es visible, es materia oscura. Es decir, la densidad de materia Om en el universo es fundamentalmente materia oscura Oo en lugar de materia visible Ob. Más aún, a principios de los 1980s se desarrolló el modelo inflacionario, el universo en sus primeros instantes sufre una expansión exponencial, que tiene como consecuencia la preferencia por un valor O=1 (valor crítico). Durante los 1980s, los cosmólogos teóricos preferían un modelo con O=Oo=1, aunque los datos astronómicos de los cosmólogos observacionales sugerían que Om=Oo=0.2-0.3. Sólo a finales de los 1980s y principios de los 1990s algunos teóricos sugirieron que podría existir alguna forma o componente de densidad de energía “oscura” Oe que reconciliará el resultado inflacionario O=1 con los datos experimentales Om=0.2-0.3. Los primeros análisis indicaban que este tipo de “energía” estaba distribuida uniformemente por todo el universo y que tenía una presión negativa (responde de forma antigravitatoria).

Este era el estado de las cosas hasta finales de 1990s, cuando las observaciones de supernovas Ia como candelas para medir distancias grandes mostró que la expansión del universo actualmente se está acelerando, lo que se puede explicar con una componente de energía oscura Oe=0.60-0.75. Cuando se trata esta energía como un fluido, su presión es negativa (si su densidad de energía es positiva). La elección más sencilla para explicar esta energía oscura es la existencia de una constante cosmológica en las ecuaciones de Einstein de la gravedad. Este término en dichas ecuaciones actúa como un fluido con presión negativa, compatible con las observaciones.

Dibujo20130207 composition of the cosmos

El resultado es un universo con una composición, cuando menos, extraña. La densidad de radiación (energía “visible”) es ridícula, Or=0.00005, la densidad bariónica (materia “visible”) es muy pequeña, Om=0.04, la densidad no bariónica (materia “oscura”) tiene Oo=0.26 y la energía oscura tiene Oe=0.70. Como no sabemos qué es la materia oscura y no tenemos una explicación “buena” para la energía oscura, el 99.6% del universo no es desconocido.

En relatividad general la aceleración de la expansión del universo está controlada por la suma de la densidad más 3 veces la presión, (ρ+3p) y no solamente la densidad ρ. Cuando (ρ+3p)>0, la gravedad total resultante es atractiva y la expansión se desacelera. Por el contrario, cuando (ρ+3p)<0 la gravedad muestra efectos “repulsivos” y la expansión del universo se acelera. En otras palabras, si la energía oscura domina sobre la materia, genera suficiente presión negativa para que el universo acelere su expansión. Ese es el resultado experimental observado por el corrimiento al rojo del espectro de las supernovas.

El nuevo modelo de “cómo parece que son las cosas” es muy bueno a la hora de predecir cosas y concuerda con un gran número de observaciones cosmológica independientes, las mas importantes son las siguientes:(a) Pequeñas fluctuaciones cuánticas en la distribución de energía en los inicios del universo fueron amplificados por una inestabilidad gravitatoria lo que las llevó a formar el núcleo de las futuras grandes estructuras del universo (galaxias, cúmulos, etc.) que existen hoy en día. La amplificación se produjo gracias a un periodo inflacionario de expansión exponencial. Las fluctuaciones cuánticas amplificadas son las fluctuaciones del campo de energía responsable de ésta, llamado campo inflatón, cuya naturaleza exacta actualmente es una incógnita. (b) Aunque desconocemos el modelo exacto del inflatón, con lo que carece de poder predictivo per se, los posibles modelos tienen parámetros ajustables que permiten que el campo de fluctuaciones cuánticas tenga un espectro gaussiano caracterizado por un espectro de potencia compatible con las observaciones del fondo cósmico de microondas obtenidas por la sonda WMAP. Las observaciones de gran precisión de WMAP confirman este escenario (o mejor, el escenario se puede adaptar fácilmente a las observaciones). (c) Simulaciones numéricas de la posible evolución de las pequeñas perturbaciones en el campo del inflatón permiten observar universos con características estadísticas para la materia bariónica (la visible) muy similares (estadísticamente, he dicho) a las observadas astronómicamente. (d) Más aún, la cantidad de deuterio (hidrógeno pesado) estimada en el universo es compatible con una nucleosíntesis primordial en un universo con los parámetros previamente descritos. La nucleosíntesis “prueba” el universo cuando tenía sólo unos pocos minutos, mientras que el fondo cósmico de microondas lo prueba con varios cientos de miles de años. Que ambas observaciones sean compatibles es una prueba muy importante de lo razonable del modelo.

En palabras de Padmanabhan, “aunque no entendemos nuestro universo, hemos tenido mucho éxito en parametrizar nuestra ignorancia en términos de unos números bien elegidos.”

El mayor problema de nuestra comprensión de nuestro universo es el la energía oscura. El modelo más sencillo para la energía oscura considera que no es un fluido de presión negativa (que tendría una ecuación de estado p=w.ρ con w=−0.8 ) sino que es un valor no nulo de la constante cosmológica λ (con ecuación de estado p=−ρ, es decir, w=−1). Sin embargo, esto acarrea un nuevo problema, el problema de la constante cosmológica. Si adimensionalizamos las ecuaciones de Einstein para obtener un escala “natural” para la constante cosmológica, utilizando unidades de Planck, el único valor razonable para la escala de λ es 10^(−123), sí, un valor 123 órdenes de magnitud menor que la unidad. Esto ha llevado a mucha gente a creer que la constante cosmológica es exactamente cero. Pero las observaciones indican que su valor es no nulo. ¿Por qué la constante cosmológica tiene un valor no nulo tan pequeño?

Normalmente el valor nulo de una constante está relacionado con una simetría en las ecuaciones (alguna magnitud que se conserva de forma exacta). Sin embargo, no se conoce tal magnitud asociada a λ=0 (no la hay en las ecuaciones de Einstein). Por ejemplo, que el fotón tenga masa en reposo exactamente cero está relacionada con la simetría o invarianza de fase en el electromagnetismo (electrodinámica cuántica). La supersimetría, aún no descuberta experimentalmente pero que está en los objetivos del próximo LHC del CERN, asegura que λ=0, a alta energía, pero esta simetría está rota a baja energía y no puede explicar dicho valor en un contexto cosmológico.

Finalmente, hay otro problema importante en relación a la constante cosmológica que aparece frecuentemente en la literatura científia, ¿por qué ahora? Por qué en “nuestra” época del universo la contribución de la energía oscura a la densidad del contenido del universo (la enegía oscura) es comparable a la energía del resto de la materia del universo. hat could be called the “why now” problem of the cosmological constant. Según, Padmanabhan una teoría capaz de predecir el valor numérico actual de λ, debe también resolver el problema de por qué ahora su valor es comparable al resto de la densidad de energía. Actualmente tal teoría no existe.

http://www.redbubble.com/people/ctoledo
http://www.redbubble.com/people/ctoledo

Actualmente no tenemos ninguna teoría que explique los valores de las densidades de las componentes del universo. Ni ρr cuyo valor lo conocemos por la temperatura del fondo de microondas, para la que no tenemos ninguna teoría que explique por qué vale 2.73 ºK cuando han transcurrido cierto número de miles de millones de años desde que se formaron las galaxias. Ni tampoco tenemos ninguna teoría que explique el cociente de ρr/ρb, ni … En resumen, necesitamos nuevos datos experimentales pero también necesitamos nuevas “mentes”, nuevos “genios” que pongan los puntos sobre las íes en estos acuciantes problemas cosmológicos.

Supongamos una estrella como el sol va agotando su combustible nuclear convirtiendo su hidrógeno a helio y éste a carbono, oxígeno y finalmente hierro llegando un momento en que el calor producido por las reacciones nucleares es poco para producir una dilatación de dicho sol y compensar así a la fuerza de la gravedad. Entonces ese sol se colapsa aumentando su densidad, siendo frenado ese colapso únicamente por la repulsión entre las capas electrónicas de los átomos. Pero si la masa de ese sol es lo suficientemente elevada se vencerá esta repulsión pudiéndose llegar a fusionar los protones y electrones de todos los átomos, formando neutrones y reduciéndose el volumen de la estrella a tal punto de no quedar ningún espacio entre los núcleos de los átomos. Ese sol se convertiría en una esfera de neutrones y por lo tanto tendría una densidad elevadísima. Sería lo que se denomina estrella de neutrones.

Naturalmente las estrellas de neutrones no se forman tan fácilmente, ya que al colapsarse la estrella en algunos casos la energía gravitatoria se convierte en calor rápidamente provocando una gran explosión. Se formaría entonces una nova o una supernova expulsando en la explosión gran parte de su material, con lo que la presión gravitatoria disminuiría y el colapso podría detenerse. Así se podría llegar a lo que se denomina enanas blancas en las que la distancia entre los núcleos atómicos ha disminuido de modo que los electrones circulan libres por todo el material, y es la velocidad de movimiento de estos lo que impide un colapso mayor. Por lo tanto la densidad es muy elevada pero sin llegar a la de la estrella de neutrones. Pero la velocidad de los electrones tiene un límite: la velocidad de la luz; y cuando el equilibrio estelar exige una velocidad de los electrones superior a la velocidad de la luz, el colapso a estrella de neutrones es inevitable.

Se ha calculado que por encima de 2’5 soles de masa, una estrella de neutrones se colapsaría más aún fusionándose sus neutrones. Esto es posible debido a que el principio de exclusión de Pauli por el cual se repelen los neutrones tiene un límite cuando la velocidad de vibración de los neutrones alcanza la velocidad de la luz.

Debido a que no habría ninguna fuerza conocida que detuviera el colapso, este continuaría hasta convertir la estrella en un punto creándose un agujero negro. Este volumen puntual inplicaría una densidad infinita, por lo que fue rechazado en un principio por la comunidad científica, pero S. Hawking demostró que esta singularidad era compatible con la teoría de la relatividad general de Einstein.

Entonces, un agujero negro es un cuerpo estelar colapsado donde su masa es tan densa que genera un campo de gravedad de tal intensidad que no deja escapar ni la luz.

Pero, entonces, ¿qué es un agujero negro? Un agujero negro es un cuerpo donde su masa es tan densa que genera un campo de gravedad de tal intensidad que no deja escapar ni la luz.

Algunas estrellas cuando han consumido su energía atómica colapsan sobre si mismas, comprimiéndose de tal forma que su fuerza gravedad aumenta con la reducción del tamaño, su enorme gravedad atrae la masa circundante y llega a comprimirse tanto que de su interior no deja escapar la luz.

Están rodeados de una “frontera” esférica que permite que la luz entre pero no salga.

Hay dos tipos de agujeros negros: cuerpos de alta densidad y poca masa concentrada en un espacio muy pequeño, y cuerpos de densidad baja pero masa muy grande, como pasa en los centros de las galaxias.

Si la masa de una estrella es más de dos veces la del Sol, llega un momento en su ciclo en que ni tan solo los neutrones pueden soportar la gravedad. La estrella se colapsa y se convierte en un agujero negro.

Si un componente de una estrella binaria se convierte en agujero negro, toma material de su compañera. Cuando el remolino se acerca al agujero, se mueve tan deprisa que emite rayos X. Así, aunque no se puede ver, se puede detectar por sus efectos sobre la materia cercana.

Los agujeros negros no son eternos. Aunque no se escape ninguna radiación, parece que pueden hacerlo algunas partículas atómicas y subatómicas.

Alguien que observase la formación de un agujero negro desde el exterior, vería una estrella cada vez más pequeña y roja hasta que, finalmente, desaparecería. Su influencia gravitatoria, sin embargo, seguiría intacta.

Como en el Big Bang, en un agujero negro se da una singularidad, es decir, las leyes físicas y la capacidad de predicción fallan. En consecuencia, ningún observador externo puede ver qué pasa dentro.

Las ecuaciones que intentan explicar una singularidad de los agujeros negros han de tener en cuenta el espacio y el tiempo. Las singularidades se situarán siempre en el pasado del observador (como el Big Bang) o en su futuro (como los colapsos gravitatorios). Esta hipótesis se conoce con el nombre de “censura cósmica”.

Los agujeros negros más masivos, residen en el centro de las galaxias. Entre aquellos a los que se ha podido estudiar, él mas masivo se encuentra en la galaxia elíptica M87, que pertenece el cumulo galáctico de Virgo.

Mediciones hechas con el Telescopio Espacial Hubble sugieren una masa de 3 mil millones de Soles (masa del sol = 1.9742×10*27 toneladas) para el agujero negro en M87. Espectros tomados por el Telescopio Espacial muestran que el gas a 60 años luz del centro de M87, rota a una velocidad de 2 millones de kilómetros por hora, y que su velocidad es mayor cerca del centro.

Y solo un objeto tan masivo puede evitar que el gas rotando a esa velocidad no se escape al espacio.

Utilizando información del Observatorio Chandra y de antiguos satélites de rayos X , un equipo de investigadores estudió una docena de “novas de rayos X” — sistemas que contienen una estrella semejante al sol alrededor de un agujero negro o de una estrella de neutrones. Comparando el nivel de energía de diferentes tipos de novas de rayos X inactivas, el equipo del Chandra concluyó que los sistemas que podrían albergar a agujeros negros emitían sólo el uno por ciento de la energía que emiten los sistemas con estrellas de neutrones.

“Al detectar tan poca energía de estos potenciales agujeros negros, tenemos nuevas pruebas de que los horizontes de eventos existen”, dice Michael García del Centro Harvard-Smithsonian para la Astrofísica en Cambridge, Massachusetts. “Es un poco raro decir que hemos descubierto algo cuando hemos visto casi nada, pero de hecho, esto es lo que ha pasado”.

Si una estrella de neutrones de superficie sólida cae, la energía será liberada cuando el material que recibe el impacto choque contra esa superficie. En cambio, si el objeto aumentado es un agujero negro, sólo una pequeña parte de la energía puede escapar antes de cruzar el horizonte de eventos y desaparecer para siempre.

“Ver escapar esta cantidad de energía, aunque sea pequeña, del agujero negro es como sentarse contra la corriente de un río y observar como el agua parece desvanecerse por el borde”, dice Ramesh Narayan, también del equipo del Chandra. “Lo que mejor explica nuestras observaciones es que estos objetos tienen horizontes de eventos y que por lo tanto son agujeros negros”.

INTRODUCCIÓN

En su concepción inicial, un agujero negro era un objeto con una fuerza de gravedad en su superficie tan grande que nada podía escapar de él; ni siquiera la luz si es que ésta estuviera afectada por la gravedad (cosa que antes no se sabía). Antes de medir la velocidad de la luz y de la teoría de la relatividad, por medio de la cual se demostró que nada puede sobrepasar la velocidad de la luz, se pensaba que un cuerpo podía alcanzar una velocidad infinita y por lo tanto el agujero negro era un cuerpo en el que la velocidad de escape era infinita también. Esto sólo podía ocurrir cuando se tratara de un astro de masa infinita o de densidad infinita. Se trataba de casos fuera de la lógica y por ello no se le dio importancia al asunto siendo aparcado en el olvido por la mayoría de los científicos.

Pero con la teoría de la relatividad especial la velocidad máxima que puede alcanzar un cuerpo es la de la luz, y entonces se puede pensar que el agujero negro ya puede tener un volumen y una masa finitas, puesto que la velocidad de escape será finita.

Como veremos la relatividad especial nos lleva otra vez a un agujero negro puntual, debido a que la velocidad de escape desde el punto de vista relativista nunca puede superar la velocidad de la luz.

De todos modos ya se había descubierto que la luz no es simplemente una partícula, y por ello no podemos aplicarle la idea de velocidad de escape. Pero es desde el punto de vista de la relatividad general de Einstein cuando se deducen las consecuencias más interesantes para los cuerpos de masa extrema, volviendo a ser factible la idea de un agujero negro no puntual. Aparece el llamado horizonte de sucesos, región del espacio alrededor del agujero cuya curvatura en el espacio tiempo impide que nada escape; ni siquiera la luz.

Además ya no se piensa que el hecho de que un cuerpo colapse hasta ocupar el volumen de un punto sea algo absurdo. Para aclarar ideas comenzaremos viendo como se pueden formar los agujeros negros, continuando luego con un análisis relativista de los agujeros negros.

CÓMO SE FORMAN LOS AGUJEROS NEGROS

Supongamos una estrella como el sol que va agotando su combustible nuclear convirtiendo su hidrógeno a helio y este a carbono, oxígeno y finalmente hierro llegando un momento en que el calor producido por las reacciones nucleares es poco para producir una dilatación del sol y compensar así a la fuerza de la gravedad. Entonces el sol se colapsa aumentando su densidad, siendo frenado ese colapso únicamente por la repulsión entre las capas electrónicas de los átomos. Pero si la masa del sol es lo suficientemente elevada se vencerá esta repulsión pudiéndose llegar a fusionarse los protones y electrones de todos los átomos, formando neutrones y reduciéndose el volumen de la estrella no quedando ningún espacio entre los núcleos de los átomos. El sol se convertiría en una esfera de neutrones y por lo tanto tendría una densidad elevadísima. Sería lo que se denomina estrella de neutrones.

Naturalmente las estrellas de neutrones no se forman tan fácilmente, ya que al colapsarse la estrella la energía gravitatoria se convierte en calor rápidamente provocando una gran explosión. Se formaría una nova o una supernova expulsando en la explosión gran parte de su material, con lo que la presión gravitatoria disminuiría y el colapso podría detenerse. Así se podría llegar a lo que se denomina enanas blancas en las que la distancia entre los núcleos atómicos a disminuido de modo que los electrones circulan libres por todo el material, y es la velocidad de movimiento de estos lo que impide un colapso mayor. Por lo tanto la densidad es muy elevada pero sin llegar a la de la estrella de neutrones. Pero la velocidad de los electrones tiene un límite: la velocidad de la luz; y cuando el equilibrio estelar exige una velocidad de los electrones superior a la velocidad de la luz, el colapso a neutrones es inevitable.

Se ha calculado que por encima de 2’5 soles de masa, una estrella de neutrones se colapsaría más aún fusionándose sus neutrones. Esto es posible debido a que el principio de exclusión de Pauli por el cual se repelen los neutrones tiene un límite cuando la velocidad de vibración de los neutrones alcanza la velocidad de la luz.

Debido a que no habría ninguna fuerza conocida que detuviera el colapso, este continuaría hasta convertir la estrella en un punto creándose un agujero negro. Este volumen puntual inplicaría una densidad infinita, por lo que fue rechazado en un principio por la comunidad científica, pero S. Hawking demostró que esta singularidad era compatible con la teoría de la relatividad general de Einstein.

Einstein decía que a medida que un cuerpo se acerca a un astro el tiempo transcurre más despacio para este cuerpo, en función de la velocidad de escape del astro (desde un punto de vista clásico), de modo que cuando se llegue a una distancia tal que la velocidad de escape clásica sea igual a la velocidad de la luz, el tiempo se detendrá para el objeto situado en ese lugar.

Aparece así una superficie esférica alrededor del agujero negro en la cual el tiempo se detiene. Esta superficie esférica es el llamado horizonte de sucesos del agujero negro.

Al atravesar este horizonte el tiempo vuelve a existir, pero con componentes imaginarias (el cálculo del tiempo transcurrido en el interior del horizonte de sucesos nos lleva a una raíz cuadrada de un número negativo), lo cual nos lleva a pensar que el tiempo transcurre en el interior de un agujero negro, tal vez en una dimensión perpendicular, tanto a las tres espaciales como a la temporal normal.

Además la teoría de la relatividad general nos dice que el espacio se curva alrededor de una masa de tal forma que un rayo de luz que pasara rozando esa masa se desviaría el doble de lo que lo haría si estuviera afectado por la gravedad desde un punto de vista clásico (como partícula).

Se calcula que para dicho radio la curvatura del espacio sería tal que la luz quedaría atrapada en el agujero. De esta forma al acercarnos al horizonte de sucesos las tres coordenadas espaciales normales se curvan de tal forma que cualquier movimiento en el interior del agujero se produciría en dirección hacia el centro de éste. De este modo todo lo que traspase el horizonte de sucesos no podrá salir jamás.

DETECCIÓN DE AGUJEROS NEGROS

Tal y como hemos descrito un agujero negro nunca podríamos observar uno de ellos ya que no reflejarían ni emitirían ningún tipo de radiación ni de partícula. Pero hay ciertos efectos que sí pueden ser detectados. Uno de estos efectos es el efecto gravitatorio sobre una estrella vecina.

Supongamos un sistema binario de estrellas (dos estrellas muy cercanas girando la una alrededor de la otra) en el cual una de las estrellas es visible y de la cual podemos calcular su distancia a la Tierra y su masa. Esta estrella visible realizará unos movimientos oscilatorios en el espacio debido a la atracción gravitatoria de la estrella invisible. A partir de estos movimientos se puede calcular la masa de la estrella invisible.

Si esta estrella invisible supera una masa de unos 2’5 veces la masa de nuestro sol, tendremos que suponer que se trata de un agujero negro.

Además si la estrella visible está lo suficientemente cerca, podría ir cediéndole parte de su masa que caería hacia el agujero negro siendo acelerada a tal velocidad que alcanzaría una temperatura tan elevada como para emitir rayos X. Pero esto también sucedería si se tratara de una estrella de neutrones. Un ejemplo de objeto detectado que cumple las dos condiciones primeras expuestas es la estrella binaria llamada Cygnus-X1, que es una fuente de rayos X muy intensa formada por una estrella visible y una estrella invisible con una masa calculada que supera los 2’5 masas solares.

Los astrónomos del RGO encontraron importante evidencia de que ese conjunto binario, llamado Cygnus X-1 (lo que significa que es la primera fuente de rayos-X descubierta en la constelación de Cygnus), realmente contiene un agujero negro.

Aparte de esto también hay que tener en cuenta que S. Hawking dedujo que un agujero negro produciría partículas subatómicas en sus proximidades, perdiendo masa e irradiando dichas partículas, lo cual sería otro modo de detección. Pero no debemos pensar que el agujero perdería masa, ya que un agujero negro de unas pocas masas solares emitiría una radiación inferior a la radiación de fondo del universo, con lo cual recibiría más energía de la que emitiría, y por lo tanto aumentaría su masa.

EL AGUJERO NEGRO NO PUNTUAL

En el apartado sobre la formación de los agujeros negros hablamos de que una estrella podría contraerse hasta ser un simple punto. Esto representaba una singularidad tanto de densidad como de curvatura del espacio (densidad y curvatura infinitas), además de tiempos imaginarios en su interior.

Sin embargo un cuerpo que caiga hacia un agujero negro tardaría un tiempo infinito, desde el punto de vista de un observador suficientemente alejado, ya que las longitudes se contraen a medida que nos acercamos al horizonte de sucesos y entonces, aunque la velocidad se mantenga desde el punto de vista del observador que cae, ésta irá disminuyendo hacia cero para el observador externo. Así cabe la posibilidad de que nunca llegara a formarse un agujero negro.

Pero además de esto, se me ocurre una posibilidad de que sí exista algo que pueda detener este colapso final hacia un punto (si ésto fuera posible) y esto es la detención del tiempo.

De aquí tenemos que, en el supuesto de que a pesar de todo la materia pudiera colapsarse y sobrepasar el horizonte de sucesos, los problemas de singularidad se podrían evitar basándonos en el hecho de que en el horizonte de sucesos el tiempo se detiene. Recordemos que según la relatividad general la velocidad de la luz disminuye a medida que se acerca a una masa (hecho comprobado al envíar y recibir señales de radio a sondas situadas casi detrás del Sol). Entonces, si la luz se frena hasta detenerse, también se detendrá toda caida y movimiento al acercarse al horizonte de sucesos.

Supongamos un astro cuya distribución de densidades interiores sea tal que la situación que caracteriza a un horizonte de sucesos se dé en todo el volumen del astro.

En este caso el tiempo estaría detenido en todo el volumen de astro (el horizonte de sucesos sería una esfera, no una superficie esférica) y por lo tanto el colapso a partir de este punto no ocurriría aún cuando se hubiera superado la presión soportable por los neutrones, y los neutrones ya estuvieran fusionándose.

Así en una estrella colapsándose sus neutrones, si se consiguiera esta distribución de densidades se detendría el colapso al detenerse el tiempo.

Para obtener dicha distribución debemos tener en cuenta que la gravedad en el interior de un astro es igual a la que tendría si le quitáramos una corona esférica justo por encima del punto en que queremos calcular la intensidad del campo gravitatorio (ya que en el interior de una corona esférica el campo gravitatorio queda anulado). Así tenemos que los cálculos son los mismos que para un punto en la superficie pero teniendo en cuenta sólo el volumen que queda por debajo de dicho punto.

A mayor profundidad tendremos mayor densidad inversamente proporcional al cuadrado del radio. Esto nos lleva a una densidad infinita en el centro del astro, pero debemos tener en cuenta que cuando el radio se hace cero la masa también tiende a cero, lo cual hace esta situación más aceptable.

Podría ser que este tipo de agujero negro fuera común en todos los agujeros negros, ya que en una implosión estelar la fusión de neutrones empezaría a realizarse en el centro de la estrella, y la situación de tiempo detenido empezaría a darse en el centro de la estrella impidiendo la fusión de más materia en ese punto. Esta situación se iría extendiendo capa a capa hacia afuera creándose una distribución de densidades como la que he calculado, y por lo tanto un agujero negro sólido desde el horizonte de sucesos hacia el interior. Sin singularidad.

Agujeros negros: ¿Se pueden realmente medir?

Tal como lo describe Ted Bunn en “Black Holes FAQ”, no podemos hablar de una única medida de grandeza de los agujeros negros ni en general de nada que exista; sino que debemos de tomar en cuenta el espacio que ocupa en el universo y la masa que posee.

Masa de los agujeros negros

Si analizamos la segunda propiedad debemos de considerar que hasta el momento lo que se sabe de la masa que poseen los agujeros negros es que esta no tiene límites conocidos (ningún máximo ni mínimo). Pero si analizamos las evidencias actuales podemos considerar que dado que los agujeros negros se forman a partir de la muerte de estrellas masivas debería de existir un límite máximo del peso de los agujeros negros que sería a lo mucho igual a la masa máxima de una estrella masiva. Dicha masa límite es igual a diez veces la masa de nuestro Sol (más o menos 1×1031 kilogramos ó 10,000,000,000,000,000,000,000,000,000,000 kilogramos). En los últimos años se ha encontrado evidencia de la existencia de agujeros negros en el centro de galaxias masivas. Se cree a partir de esto que dichos agujeros negros poseerían una masa de un millón de soles).

Tamaño de los agujeros negros

Si analizamos el tema del espacio que ocupa un agujero negro debemos de considerar como parámetro principal una variable matemática denominada el radio de Schwarzchild el cual es el radio del horizonte de sucesos que comprende al agujero negro (dentro de este radio la luz es absorbida por la gravedad y cualquier cuerpo es absorbido con una fuerza gravitatoria infinita hacia el centro del agujero negro no pudiendo escapar de éste). Ahora bien los científicos han logrado hallar una relación directa entre la masa y el espacio ocupado de un agujero negro, esto significa que si un agujero negro es diez veces más pesado que cualquier estrella ocupará también diez veces el espacio ocupado por esa estrella. Para darnos una idea más clara compararemos el tamaño del sol con un agujero negro súper masivo, el sol posee un radio de aproximadamente 700,000 kilómetros mientras que el agujero negro súper masivo poseerá un radio de a lo más cuatro veces más grande que el del Sol.

¿Existen los agujeros blancos?

Si se analizan en detalle las ecuaciones de las que se derivan las propiedades relativistas vamos a encontrar siempre que teóricamente existe una solución simétrica para cada una de ellas, es decir, así como tenemos la idea de que para la materia existe la antimateria, o a lo negro se opone lo blanco, de igual manera podemos deducir teóricamente que debe de existir algo que posea características completamente opuestas a la de los agujeros negros.

Para este caso, sabemos que los agujeros negros son definidos como un horizonte de sucesos dentro del cual todo objeto no importando su estado es atrapado indefectiblemente por una fuerza gravitatoria inmensa (casi infinita), por oposición podemos entender que debe de existir (al menos teóricamente) un agujero blanco con un horizonte de sucesos en donde todo lo que esté dentro de él será violentamente repelido, tal vez con una fuerza inmensa (casi infinita) esto nos lleva a pensar en las ideas (nuevamente las cito) de la materia y la antimateria. Pero lo interesante está en que si bien las matemáticas efectivamente pueden darnos una respuesta simétrica tan controversial, también es cierto que un horizonte de sucesos con esas características es improbable y hasta el momento no ha habido descubrimiento que contradiga su no existencia real.

¿Y los agujeros de gusano?

Los agujeros de gusano son consecuencia de un agujero negro que se encuentra girando con cargas determinadas, esto provocaría que esté simultáneamente interactuando con un agujero blanco, la combinación de ambos es denominado un agujero de gusano.

Sin embargo, como hemos visto, es improbable que los agujeros blancos existan y si alguien cae en un agujero negro llegará a dirigirse hacia el centro de la singularidad, pero no atravesaría un agujero de gusano pues este requeriría que existiese un agujero blanco. Pero teóricamente se piensa que si éste existiera habría una conexión entre la ubicación del agujero negro y como salida se tendría al lugar en donde está ubicado el agujero blanco.

Según Stephen Hawking, un agujero de gusano se formaría si el espacio-tiempo tuviera una forma cilíndrica (salvando las diferencias de 2 a 4 dimensiones) con un asa, donde estaría el agujero de gusano. En los puntos donde el asa tocara el cilindro, serÍan puntos de estacamiento temporal. Dicho agujero de gusano uniría puntos del universo espacio-temporalmente distantes. Esos agujeros podrían ser utilizados para solventar el problema de las enormes distancias astronómicas, además de viajar en el tiempo.

Increíble, pero cierto. En febrero de 2008 se publicó en Essential Science Indicators la actualización del perfil de España (Spain’s country profile). Según aparecía en la web, entre los 147 países del mundo estudiados, España es el Número 10 por número de citas, el Número 16 por número de artículos, y el Número 2 por número de citas por artículo (tras EEUU). Eso hizo que emulenews enviara una noticia al respecto a Menéame, afirmando “La ciencia-técnica españolas avanzan a pasos de gigante. Se han utilizado los datos en el ISI Web of Science desde enero de 1997 a octubre de 2007.”

Sin embargo, a día de hoy, los resultados del mismo estudio, SON OTROS. Según se publica ahora España es el Número 10 por número de citas (igual que antes), el Número 9 por número de artículos (antes éramos el 16), y el Número 40 por número de citas por artículo (sí, leéis bien, el número 40 en lugar del número 2). ¿Cómo pudieron cometer un error tan garrafal?

Chi lo sa.

PD: En palabras de los autores del estudio: “Due to a mistake in data rankings contained in the original (February 2008 ) opening statement for Spain on this page (and 2008 menu), the rankings for Spain have been updated.”

El artículo “Higgs-mass predictions,” de Thomas Schücker, ArXiv preprint, 2 Mayo 2008, nos compila las estimaciones teóricas o predicciones más conocidas de la masa (en reposo) del Bosón de Higgs (o del de menor masa entre los bosones de Higgs, pues se supone que tiene que haber varios).

Muchos físicos han desarrollado predicciones teóricas para mH, la masa del bosón de Higgs, tanto límites inferiores, como superiores. El valor más “fiable” es 148 ± 34 GeV, valor del Grupo de Trabajo en Teoría Electrodébil del LEP-2 (LEP Electroweak Working Group) que se basa en los datos de alta precisión del LEP-2, la no observación con él del bosón, y la validez del Modelo Estándar como tal. Actualmente se puede descartar un valor inferior a 114.4 GeV con un intervalo de confianza al 95%. Por supuesto, ciertas ideas teóricas permiten valores inferiores a 100 GeV pero con un bosón de Higgs que interactúa de forma exótica con el resto del Modelo Estándar y que, en mi opinión, está alejado de lo “normalmente” entendemos por bosón de Higgs.

El propio Schücking (ArXiv preprint) propuso mH = 115.3 ± 0.1 GeV (= mW / sqrt(sin(aW)), donde mW es la masa del bosón vectorial W y aW es el ángulo de Weinberg, donde coseno de aW es el cociente mW/mZ, donde mZ es la masa del bosón vectorial Z, y sqrt es la raíz cuadrada y sin la función seno). Usa ideas de Wigner que hoy en día se enmarcan en el llamado modelo “subestándar” que utiliza tecnología de números cuaterniones. El artículo se lee fácil.

Gogoladze-Okada-Shafi (ArXiv preprint) proponen mH = 117 ± 4 GeV, quienes utilizan un modelo en 5D que compatifican para obtener algo “parecido” al modelo estándar (una teoría quiral en 4D de “baja energía”) dando como residuo una partícula escalar que “identifican” con el bosón de Higgs. Su fórmula para mH depende de la escala de energía a la que compactifica su modelo por lo que tienen bastante libertad para ajustar este valor si fuera necesario.

Arbuzov-Barbashov-Pervushin-Shuvalov-Zakharov (ArXiv preprint) estiman mH = 118 GeV utilizando datos del fondo cósmico de microondas (CMB) en el marco del modelo cosmológico conforme que se obtiene cuando se usa la teoría de la gravedad de Weyl-Dirac en lugar de la de Einstein. Este modelo predice una gran creación de bosones W, Z y de Higgs primordiales que dejarían como señal tres “picos” en el CMB. Ajustando dos picos para que “den” las masas mW y mZ, el tercer “pico” nos predice mH.

Ellis-Nanopoulos-Olive-Santoso (ArXiv preprint) predicen mH = 120 ± 6 GeV utilizando una de las variantes del Modelo Minimal Supersimétrico (MSSM), una extensión mínima del Modelo Estándar que incluye la supersimetría entre bosones y fermiones (mucha gente cree que la supersimetría será descubierta en el LHC junto al bosón de Higgs). La mayoría de las veriones del MSSM predicen masas mH < 150 GeV, pero además predicen una “plétora” de nuevas partículas (compañeras supersimétricas de las que conocemos, buenos candidatos a materia oscura en el Universo). El valor de mH=120 es el pico más probable, pero el modelo predice una distribución “casi gaussiana” de valores posibles.

Feldstein-Hall-Watari (ArXiv preprint) estiman mH = 121 ± 6 GeV mediante un modelo inspirado en teoría de cuerdas, suponiendo, por un lado que el Modelo Estándar es válido hasta la escala de Planck y por otro que el bosón de Higgs se puede describir mediante un modelo de cuerdas muy simplificado válido a esta escalar. Junto a mH también “predicen” (a posteriori, claro) la masa mT del quark top.

Froggatt-Nielsen (ArXiv preprints 1995 y 2001) predicen mH = 121.8 ± 11 GeV suponiendo que el Modelo Estándar es válido hasta la escala de energías de Planck, al menos en lo que corresponde al bosón de Higgs, y que el potencial de energía que describe al bosón de Higgs tiene dos mínimos de energía, uno en el que vivimos y otro a la energía de Planck, lo que les permite predecir, en el que vivimos, mediante técnicas de grupo de renormalización las masas mT (lo hicieron en 1995) y mH.

Continuará…

Un descubrimiento sorprendente sobre la sandía, tan presente en nuestra dieta Mediterránea durante el verano español, contiene citrulina en su parte blanca, sugiere que los cocineros tendrán que empezar a considerar el diseño de platos culinarios basados en la sandía como “afrodisíaco”, ya que esta sustancia es la alternativa “del pobre” a las pastillitas azules para disfunciones eréctiles en hombres. ¿Será éste el secreto de la virilidad veraniega del “semental” ibérico para las veraneantes norteeuropeas en la Costa del Sol?

La sandía (Citrullus vulgaris Schrad.) era ampliamente conocida como fuente natural y rica del aminoácido no esencial citrulina. La citrulina es un alfa-aminoácido no proteico, importante intermediario en el metabolismo de la eliminación del nitrógeno, es decir, en el ciclo metabólico de la urea. Deriva de la ornitina y es precursor de la arginina, que es un relajante de los vasos sanguíneos y tiene muchos efectos benéficos para la salud. En mamíferos, la mayor fuente de citrulina es el intestino delgado. Se ha utlizado médicamente para diferentes síndromes y enfermedades. La L-citrulina se administra oralmente a niños y adolescentes para el tratamiento de ciertas anemias. También ha sido utilizada como suplemento para la mejora de la actividad sexual y la disfunción eréctil.

Entonces, la noticia no es tan novedosa como mucha gente cree…

El descubrimiento del Dr. Patil se ha “vendido” con “todo el marketing” que tiene que venderse, este año, en el que se le ha nombrado director del Vegetable and Fruit Improvement Center, de la Texas A&M University. ¿Por qué los americanos (él es de origen indio) son así? ¿Cuándo aprenderemos a “vendernos” los españoles de igual manera?

Pero, a muchos lo que os interesará saber es … ¿cuánta sandía hay que comer al día? Los estudios indican que los niveles máximos de citrulina en sangre se alcanzan con un consumo de 6 copas de zumo de sandía al día (Penelope Perkins-Veazie et al. “Watermelons and health,” Acta Horticulturae, 731: 121-127, 2007 ). Lo que no es poco.

Dibujo20130723 Figure shows two isospectral drums

¿Es posible distinguir la forma del tapete de un tambor escuchando sólamente el sonido que produce al ser golpeado? Desde 1991 se sabe que es imposible, en general, es decir, que hay tambores con diferentes formas que suenan exactamente igual. Como los de la figura de arriba cuyos modos normales de vibración tienen la misma frecuencia (“suenan” igual), aunque en la figura sólo se muestran los 4 primeros. Un artículo curioso sobre este tema lo tenéis en Ivars Peterson’s MathTrek, “Drums That Sound Alike,” April 14, 1997 .

Lo que hace que los sonidos producidos por dos tambores diferentes suene diferente son las frecuencias características de vibración de sus tapetes al ser golpeados, que dependen fundamentalmente del tamaño, forma, y tensión del tapete, así como de la forma de la baquete y el modo en que se golpea. El “color” sonoro de cada tambor depende de las diferentes frecuencias de vibración que son sonidos puros “formantes” del sonido. En 1966, Mark Kac se preguntó si el conocimiento de los modos normales de vibración, estas sonidos puros, producidos por un tambor era suficiente para determinar unívocamente su forma geométrica (“Can One Hear the Shape of a Drum?”). La resolución de este problema tuvo que esperar hasta 1991, cuando Carolyn S. Gordon y David L. Webb, descubrieron un contraejemplo, dos tambores con la misma área y perímetro pero con diferente geometría que mostraban exactamente el mismo espectro sonoro.

La imagen que inicia esta entrada es del artículo de Toby Driscoll, “EIGENMODES OF ISOSPECTRAL DRUMS,” SIAM REVIEW, Vol. 39, No. 1, pp. 1-17, March 1997 , que ha verificado numéricamente la igualdad de los espectros de frecuencia con hasta 12 dígitos de precisión. Hace tiempo que lo leí y la televisión esta noche me lo ha recordado. Algo bueno tiene que tener la televisión. ¿Que qué me lo ha recordado? Ya lo he olvidado.

Cortadura de más de 2 metros tras la gran avalancha observada en el Glaciar de Vallonnet, Francia, 4 abril 2007. La avalancha se produjo espontáneamente cuando mientras estaba lloviendo.

Las avalanchas de nieve son causadas cuando los cambios del tiempo (meteorológico) provocan que una bajada en la densidad de una capa de nieve o de hielo que se encuentra entre la nieve del fondo y la de la superficie, con lo que la capa de nieve de la superficie colapsa con un sonoro ruido o empieza a deslizar. ¿Qué determina la elección entre estos dos comportamientos? La mayoría de los investigadores opinaba que el ángulo de la pendiente es el determinante del comportamiento observado. Sin embargo, parece que no es así, como han demostrado J. Heierli, P. Gumbsch, M. Zaiser, “Anticrack Nucleation as Triggering Mechanism for Snow Slab Avalanches,” Science, Vol. 321. no. 5886, pp. 240-243, 11 July 2008 , quienes han analizado el proceso de fractura de la nieve usando un nuevo concepto, las antifisuras o anticracks, lugares donde el material se desplaza en la dirección opuesta a la normal para la propagación de una fisura (crack), lo que provoca una pérdida de cohesión y una reducción de la densidad de la nieve. De esta manera, fracturas lejanas pueden ser los causantes de una avalancha, de la misma forma que el aleteo de una mariposa puede provocar un huracán en el otro extremo del mundo (el famoso “efecto mariposa”).

Los investigadores han desarrollado un modelo matemático para la propagación de fracturas basado en minimizar un funcional de energía que conduce a ecuaciones de Euler-Lagrange diferentes en la región de la fisura que en el resto de la nieve, ecuaciones que han resuelto utilizando el método de elementos finitos. La nieve se modelo como un material granular formado por tres capas diferenciadas, la capa central es rígida pero puede colapsar y se encuentra entre dos capas, la inferior estática y la superior que puede deslizar (la avalancha). En cada capa suponen que los parámetros del material (densida, módulo de Young, modulo de cizalla y cociente de Poisson) son constantes pero diferentes entre una capa y otra. En las regiones de contacto entre capas consideran fuerzas de fricción de tipo Coulomb. La información suplementaria al artículo es bastante clara en la presentación del modelo matemático (y es de acceso gratuito incluso si no tienes suscripción).

El modelo predice que el proceso de avalancha ocurre en dos etapas. En la primera, se forma el núcleo de la antifisura (anticrack), por una sobrecarga de la nieve o por precipitación, cuya longitud crece hasta alcanzar una longitud crítica. Este crecimiento de la antifisura es debido tanto a fuerzas perpendiculares y normales a la pendiente. En la segunda etapa, las fuerzas de contacto entre las capas de nieve en consideración modifican las condiciones de contorno, generando una inestabilidad que provoca la propagación de la fisura. Dependiendo de la fricción se producirá una avalancha (si es pequeña) o sólo se producirá un “aviso” (una avalancha fallida) que generará un sonoro ruido. Este modelo en dos etapas explica varios fenómenos curiosos. Por ejemplo, por qué ciertas fracturas de la nieve no provocan avalanchas (la antifisura se propaga sin generar una avalancha), o por qué esquiadores que se mueven lejos, en zonas planas o con poca pendiente, pueden ser la “mariposa” cuyo aleteo provoca la avalancha (el esquiador genera una antifisura que se propaga sin avalancha hasta alcanzar, lejos, un terreno suficientemente inclinado como para producir la avalancha).

En resumen, el nuevo modelo predice que no hay una pendiente crítica a partir de la cual se propagan las fisuras generando una avalancha. Esto es importante para los esquiadores ya que las señales sonoras que advierten de posibles avalanchas, que en terreno con poca pendiente suelen ser tratadas como en la fábula de “Pedro y el lobo”, no pueden ser consideradas como del todo inofensivas, más bien al contrario. Este nuevo modelo sustenta teóricamente muchas de las ideas que se barajan en el campo de experimental sobre predicción de avalanchas, donde la “experiencia” es un grado. Habrá que estar “al loro” para ver si el modelo ayuda al desarrollo de mejores modelos por ordenador prognósticos y predictivos de avalanchas (quizás apoyados con datos satelitales o de estaciones de vigilancia específicas).

Una “anaconda” de goma puede extraer energía eléctrica de las olas del mar y ser competitiva como nueva fuente de energía, según comenat Jane Reck, “Rubber ‘snake’ could help wave power get a bite of the energy market,” ScienceX2 news, 2008 , esta innovadora tecnología británica de diseño “ultrasimple” promete producir energía eléctrica limpia a un coste muy bajo.

“Anaconda” es un largo y fino tubo de goma relleno de agua y cerrado por sus dos extremos, anclado en el mar para que flote por debajo de la superficie del mar, con uno de sus extremos en dirección hacia las olas. Cuando una ola incide en su extremo, deforma la “anaconda” produciendo un “bollo” que se propaga por toda su longitud a la misma velocidad que la ola, lo que hace que el “bollo” crezca conforme se propaga. Finalmente, el “bollo” llega el otro extremo donde incide sobre una turbina que acoplada a una dinamo produce electricidad. Como “Anaconda” es de goma, es mucho más barata de fabricar y mantener que otros dispositivos de extracción de energía de las olas.

Por ahora, “Anaconda” sólo ha sido probada en laboratorio (se encuentra en la fase de desarrollo, la D de la I+D+i “inventada” por nuestro ex-presidente Aznar). Los investigadores de una empresa privada y de la Universidad de Southampton ya se han embarcado en un programa para diseñarla a gran escala y desarrollar experimentos en mar abierto. Una “Anaconda” en funcionamiento práctico tendrá unos 200 metros de longitud y unos 7 metros de diámetro, encontrándose sumergida entre 40 y 100 metros de profundidad. Las estimaciones por ordenador indican que producirá, a pleno rendimiento, un megawatio (1MW) de electricidad (el consumo de unos 2000 hogares) con un coste estimado de 3 céntimos de euro por kilowatio/hora (kWh). Este coste es casi el doble que el coste de generar electricidad en centrales hidroeléctricas, pero aún así es muy favorable cuando se compara con otras tecnologías de extracción de energía eléctrica de las olas.

Más información (y animación QuickTime del prototipo): “ANACONDA. WAVE ENERGY BULGING SNAKE“.

Más información sobre Anaconda. Otro videoclip animado (aquí).

Noticia en el periódico El Mundo.

Otra tecnología similar (Pelamis, la serpiente robotizada que extrae energía de las olas) pero de mayor costo de construcción y dificultad de diseño e implementación práctica.

La computación cuántica suele estar asociada al entrelazamiento (entanglement), es decir, la evolución (unitaria se dice) de estados cuánticos puros (sin ruido). El entrelazamiento es el responsable del gran speedup de estos ordenadores respecto a los algoritmos clásicos. Sin embargo, mantener un gran número de cubits en un estado entrelazado es muy difícil, por lo que la computación cuántica basada en el entrelazamiento es muy susceptible a errores, de ahí la importancia de las técnicas de corrección de errores, hoy en día altamente estudiadas. Sin embargo, la computación cuántica sin entrelazamiento también es posible.

Una verificación experimental de este tipo de computación cuántica sin entrelazamiento en el diseño de puertas lógicas cuánticas aparece en B. P. Lanyon, M. Barbieri, M. P. Almeida and A. G. White, “Experimental quantum computing without entanglement,” ArXiv preprint, 4 jul 2008 . Los autores han implementado la puerta lógica cuántica que aparece más arriba, llamada DQC1 utilizando estados ruidosos (mezcla se dice). Esta puerta lógica funciona con cierta cantidad de entrelazamiento, aunque no un entrelazado completo, permitiendo resolver ciertos problemas mediante ordenadores cuánticos, aunque no un algoritmo arbitrario, ya que no es una puerta lógica cuántica universal. Los autores afirman que su puerta lógica es escalable, aunque esto lo tendrán que demostrar en el futuro.

La puerta lógica DQC1 comprende un único cubit en un estado puro (entrelazado) rodeado de un registro (serie) de cubits en estado completamente mezclado. Esta puerta lógica no es universal pero permite implementar algunos algoritmos para resolver algunos problemas no eficientes en un ordenador clásico (por ejemplo, la simulación de otros sistemas cuánticos). Más, aún la simulación mediante un algoritmo clásico de una puerta DQC1 parece ser que no es eficiente (aunque en general no está demostrada matemáticamente, nadie ha encontrado un algoritmo aún).

En resumen, interesante artículo que da un paso más en la línea del famoso artículo de Gilles Brassard et al. “Quantum Computing Without Entanglement,” Theoretical Computer Science, 320(1):15-33, 12 June 2004 , ArXiv preprint, así como con la computación cuántica adiabática, ver Lloyd “Quantum search without entanglement,” Phys. Rev. A 61, 010301, 1999 , ArXiv preprint.