Luminet, Jean Pierre - Agujeros Negros

April 12, 2017 | Author: le_carioca | Category: N/A
Share Embed Donate


Short Description

Download Luminet, Jean Pierre - Agujeros Negros...

Description

Los libros no están hechos para ser creídos sino para ser sometidos a examen. Ante un libro, no debemos preguntarnos lo que dice sino lo que quiere decir... Umberto Ecco El nombre de la Rosa

PRÓLOGO La historia del Universo y de sus evoluciones conduce sin cesar a la interrogación fundamental sobre nuestra propia historia y la comprensión de nuestro entorno. Los astrofísicos tienen el temible privilegio de tener la más amplia visión del Universo; los detectores de partículas se utilizan en la actualidad para estudiar los astros lejanos en pie de igualdad con los grandes telescopios, y de lo infinitamente pequeño a lo infinitamente grande, en el espacio y en el tiempo, el Universo no cesa de sorprendernos desvelando poco a poco la diversidad de sus estructuras. Vivimos a este respecto un período apasionante. Cada año que pasa ofrece a la Astronomía un acontecimiento importante: 1986 ha quedado marcado por la exploración espacial de

Urano y del cometa de Halley, que nos ha enseñado mucho sobre la creación de nuestro Sistema Solar; 1988 verá el vuelo del Telescopio espacial; 1989 quedará señalado por la exploración del planeta Neptuno, cuatro mil quinientos millones de kilómetros de nosotros... ¿y 1987? Desde el 24 de febrero, se sabe que este año permanecerá durante mucho tiempo en los anales como el de la explosión de la «supernova» de la Gran Nube de Magallanes. Este acontecimiento raro y efímero, que los astrónomos esperaban desde hace cuatro siglos, es tanto más excepcional cuanto que quizás ha engendrado «a plena vista» el astro más extraño del Universo: un agujero negro. La «invención» de los agujeros negros es incuestionablemente una de las aventuras intelectuales más audaces de los tiempos modernos. El mismo vocablo de agujero negro reviste una connotación mágica: existirían en el Universo astros que no podrían ser vistos, capaces de absorber toda materia circundante, mundos cerrados totalmente desligados del nuestro, dando paso a pozos sin fondo en los que todo cuerpo, toda materia son inexorablemente triturados... Las propiedades de los agujeros negros son tan extrañas, que durante largo tiempo han dificultado la credibilidad del concepto, haciendo a la vez las delicias de los aficionados de lo sensacional. Esto es así porque los agujeros negros remueven las bases mismas de nuestras concepciones sobre el espacio y el tiempo. El gran público así lo ha comprendido y los ha festejado: los agujeros negros se han convertido en héroes de relatos de ciencia-ficción, de dibujos animados, de «películas de catástrofes». Sin embargo, este concepto de aspecto innegablemente misterioso es mucho menos «mágico» que otras especulaciones aparentemente más familiares, tales como la presencia de vida alrededor de otras estrellas distintas del sol. Mi amigo Jean-Pierre Luminet, que posee a la vez el don de comprender y descubrir las nociones más complejas de las teorías de la gravedad y de la relatividad, y el de hacer compartir sus descubrimientos contándolos con sencillez, nos propone una obra maestra sobre la naturaleza y existencia de los agujeros negros. Nos arrastra a un viaje en el tiempo y el espacio en el que las fuerzas de gravitación dan su plena medida y someten al espacio-tiempo a su imperioso capricho. A la vuelta de este viaje en el que cada paso es jalonado por nuestro cronista cósmico, el lector se apercibirá de que el concepto de agujero negro no es ya tan misterioso y que en el cielo existen en realidad astros que presentan todos los síntomas característicos de los agujeros negros. El autor nos muestra también que los agujeros negros son una formidable herramienta de análisis, una especie de telescopio teórico de aumento variable capaz de sondear tanto los misterios de lo microscópico como de lo macroscópico y como consecuencia proporcionarnos una de las llaves fundamentales de la comprensión de nuestro Universo. Después de haber sido una aventura intelectual, los agujeros negros simbolizarán quizás en los siglos futuros, la aventura a secas a los ojos de los navegantes cósmicos quienes, semejantes a los marinos de la Antigüedad, temerán llegar al borde del mundo y allí despeñarse en el vacío y lo desconocido. En una palabra, espero que, como yo, todo lector de este libro tendrá la impresión de que los desarrollos de la astrofísica moderna son tan fascinantes de descubrir y de saborear como las más oníricas novelas de ciencia-ficción. JEAN AUDOUZE

Primera Parte GRAVITACIÓN Y LUZ En las teorías sucede como en la pesca: sólo el que se arriesga tiene la oportunidad de atrapar algo. Novalis

Capítulo 1 LAS PRIMICIAS El más feliz de los mortales El peso de un pajarilla que allí se posase bastaría para desplazar la Tierra Leonardo da Vinci

Los pensadores griegos, que no han sido sobrepasados por el hombre moderno en numerosos campos de la producción intelectual, no habían comprendido apenas la gravitación. Para Aristóteles, cada cuerpo tiene un «lugar natural» en el universo. Abajo, la tierra y todo lo que está directamente ligado a ella, encima, el agua, después el aire y finalmente el elemento ligero por excelencia, el fuego. Un cuerpo sometido a fuerzas que lo alejan de su lugar natural se mueve de manera que retorne a su «casa». Así pues una flecha o un guijarro lanzados al aire vuelven a caer en el suelo pues tratan de alcanzar su lugar natural, que está en el centro de la Tierra. Aristóteles pretende además que estos movimientos son rectilíneos; la flecha sale del arco en línea recta bajo la acción de la fuerza que le imprime la cuerda, y en cuanto la fuerza cesa de actuar la flecha cae en línea recta. Curiosamente, estas concepciones sobre el movimiento de los cuerpos han prevalecido durante veinte siglos, despreciando la evidencia cotidiana; la flecha tiene en realidad una trayectoria curvada, en forma de arco de parábola. Quizás sólo el bizantino de Alejandría Juan Filopón, en el siglo VI, osó poner en duda el dogma aristotélico vislumbrando el concepto de inercia. La gravitación es objeto por primera vez de examen científico con Galileo Galilei. Dejando caer cuerpos de diferente naturaleza desde lo alto de la Torre inclinada de Pisa y haciendo rodar bolas a lo largo de planos inclinados, Galileo descubre en 1638 la propiedad esencial de la gravitación: todos los cuerpos son acelerados de la misma manera, cualesquiera que sean su masa o su composición química. Marcada por la minuciosa observación de los fenómenos físicos y la entrada de la abstracción en el razonamiento científico, la obra de Galileo rompe claramente con la manera aristotélica de aprehender el mundo. Para descubrir la esencia de un fenómeno físico, es preciso saber hacer abstracción de todo lo que puede disfrazarlo en la vida cotidiana, cuando las condiciones ideales de la experimentación no se dan en su totalidad. Para que Galileo deduzca la ley de la universalidad de la caída de los cuerpos en el vacío a partir de observaciones hechas en el aire, ha tenido primero que comprender que las fuerzas de rozamiento y la resistencia del aire, que se ejercen de manera muy diferente sobre una piedra y una pluma, no son más que fenómenos parásitos que enmascaran la acción real de la gravitación. Después del genio intuitivo, el genio analítico. La anécdota dice que en 1666 Isaac Newton meditando bajo un manzano una noche de luna llena, presencia la caída de una manzana. De pronto toma conciencia del hecho de que la Luna cae sobre la Tierra por la misma causa que la manzana, atraídas las dos por la gravitación terrestre. Calcula entonces que la fuerza de atracción entre dos cuerpos decrece como el inverso del cuadrado de su distancia; doblar la distancia entre dos cuerpos conduce pues a dividir por cuatro la fuerza que los atrae el

uno hacia el otro. Puesto que la Luna está sesenta veces más alejada del centro de la Tierra que la manzana 2, debe caer 1

Si como pretenden algunos historiadores, Galleo no lanzó en realidad nunca cuerpos desde lo alto de la torre de Pisa, ¡su mérito se acrecienta aún más, debido al esfuerzo de abstracción suplementaria! 2 384.000 km para la Luna contra 6.400 km para la mangana.

con una aceleración 60 x 60 = 3.600 veces menor que la de la manzana. Aplicando entonces la regla descubierta por Galileo sobre la caída de los cuerpos, según la cual la distancia recorrida es proporcional a la aceleración y al cuadrado del tiempo, Newton deduce de ello que el fruto debe caer en un segundo la misma distancia que la Luna en un minuto (sesenta segundos). El movimiento de la Luna es bien conocido; Newton hace la comparación, los números concuerdan. Acaba de descubrir la ley de la atracción universal. La obra de Newton (que se extiende bastante más allá de su teoría de la gravitación) marca profundamente las mentes de su tiempo y se impone como una de las más bellas realizaciones de la inteligencia humana. Un siglo más tarde, Pierre Simón Laplace, el «padre» de los agujeros negros,- reconoce en los Principios matemáticos de la Filosofía natural de Newton «su preeminencia sobre las otras producciones del espíritu humano». El entusiasmo del matemático Joseph Lagrange va aún más lejos. «Como no hay más que un solo Universo a explicar, nadie puede rehacer lo que ha hecho Newton, el más feliz de los mortales.» Aunque la elaboración de una buena teoría de la Naturaleza no lleva necesariamente a la felicidad, lo cierto es que habrá que esperar a Albert Einstein y su remodelación radical del paisaje del espacio y del tiempo para encontrar una obra científica de igual amplitud. El apetito de los planetas El terreno de aplicación, por excelencia, de la teoría de Newton es la Mecánica Celeste. A partir de su ley de atracción universal («universal» pues todos los cuerpos están sometidos a la gravitación), Newton es capaz de explicar las leyes empíricas de Kepler, que describen «el apetito de los planetas» por el Sol. Más aún: provistos de un instrumento de cálculo maravillosamente eficaz, los mecánicos del cielo se embriagan con su herramienta y cincelan un nuevo Sistema Solar. Primer triunfo: ¡Edmund Halley predice el retorno de «su» corneta en 1759! ¡El cometa acude a la cita el día de Navidad de 1758! La teoría de Newton revela además que la descripción kepleriana del movimiento de los planetas no es más que aproximada, pues, si bien cada planeta está atrapado por la atracción del Sol en una órbita idealmente elíptica, es desviado por la atracción de los otros planetas26 Gravitación y lux (en especial Júpiter, el más masivo con diferencia). Estas desviaciones, aunque débiles, son calculables y accesibles a la observación astronómica; son el objeto de la potente «teoría de perturbaciones» que permite en 1846 a Urbain Le Verrier y John Adams predecir la existencia y la posición de un nuevo planeta. El descubrimiento efectivo de Neptuno en el lugar y tiempo predichos marca el apogeo de la teoría newtoniana de la gravitación. Dos precursores de los mundos invisibles Existen pues en los espacios celestes cuerpos oscuros tan considerables y quizá tan numerosos como las estrellas. Un astro luminoso de la misma densidad que la tierra, cuyo diámetro fuese doscientas cincuenta veces mayor que el del sol, no dejaría llegar, debido a su atracción, ninguno de sus rayos hasta nosotros; así pues es posible que los mayores cuerpos luminosos del Universo sean por ello invisibles.

Fierre Simón Laplace (1796)

Combinando la idea de una velocidad finita de la luz y la idea de velocidad de escape, heredada de Newton, el reverendo inglés John Michell y Fierre Simón Laplace, en las

postrimeras del siglo XVIII, sacan a la luz la consecuencia más fascinante de la atracción gravitatoria: el agujero negro. El concepto de velocidad de escape es bien familiar. La experiencia cotidiana muestra que un guijarro lanzado hacia el cielo vuelve a caer sobre el suelo cualquiera que sea la fuerza del brazo que lo ha impulsado. Se recela con toda razón de la gravitación y de su trampa inexorablemente atractiva. Pero ¿hasta qué punto la gravitación puede aprisionar la materia? Lo que es cierto para el guijarro lanzado al aire desde la Tierra no sigue siéndolo sobre un pequeño satélite de Marte tal como Phobos; ¡la gravitación es allí tan débil que un brazo humano tendría suficiente fuerza para satelizar un guijarro e incluso ponerlo en órbita alrededor de Marte, a 9.000 km de allá! Pero volvamos a la Tierra. Su gravitación puede visualizarse como un pozo ensanchado por el borde, del que un proyectil sólo puede salir si su velocidad es suficientemente elevada. Para situar en órbita un satélite artificial, el cohete portador de éste debe abandonar el suelo, inclinarse para volar paralelamente a la superficie y acelerar hasta alcanzar una velocidad no inferior a 8 km/s. Es ésta la velocidad de satelización, a partir de la cual la fuerza centrífuga, debida a la rotación alrededor de la Tierra y dirigida hacia el espacio exterior, puede equilibrar el peso dirigido hacia el centro de la Tierra... En ciertos parques de atracciones, se pueden ver circuitos cerrados de elevadas paredes a lo largo de los cuales los motoristas se elevan más y más a medida que su velocidad aumenta. La satelización no es otra cosa que una estabilización sobre las paredes del pozo gravitatorio. Si ahora el motorista adquiere una velocidad aún mayor acabará por salir de la pista. De la misma manera, si el cohete sobrepasa una cierta velocidad, su órbita se abrirá y saldrá del pozo gravitatorio terrestre. Esta velocidad crítica, por encima de la cual todo proyectil — guijarro o cohete— escapa de la fuerza de atracción terrestre, toma precisamente el nombre de velocidad de escape. En la superficie de la Tierra, es de 11,2 km/s, calculándose sin dificultad para cualquier planeta, estrella o cualquier otro objeto astronómico. Es independiente de la naturaleza del proyectil, no está determinada más que por las características globales del astro desde el que se efectúa el lanzamiento: cuanto mayor es su masa, mayor es la velocidad de escape y, para una masa dada, la velocidad de escape es tanto mayor cuanto menor es el radio del astro. En otros términos, cuanto más concentrado, más compacto, es un astro, más profundo es su pozo gravitatorio y más difícil resulta arrancar algo de él —lo que intuitivamente es evidente. Mientras que la velocidad de escape no es más que 5 m/s en Phobos y 2,4 km/s en la Luna, alcanza 620 km/s en la superficie del Sol. En una estrella más compacta del tipo enana blanca (ver cap. 5), alcanza varios miles de km/s. La idea más compleja del agujero negro tiene su origen en esta noción completamente elemental de velocidad de escape. La velocidad de la luz —próxima a los 300.000 km/s— era conocida aproximadamente desde 1676, gracias a las observaciones de Olaüs Roemer sobre los satélites de Júpiter. ¿Por qué no imaginar entonces la existencia de astros de masa suficiente para que la velocidad de escape en su superficie sea mayor que la velocidad de la luz? En un artículo leído en la Real Sociedad de Londres en 1783 y publicado un año más tarde en las Philosophical Transactions, John Michell escribió: «Si, como Newton había propuesto, la luz fuese una corriente de partículas, estas partículas serían afectadas por la gravitación... la luz no podría escaparse de un cuerpo que tuviese la misma densidad que el Sol pero con un radio 500 veces mayor.» Un poco más tarde, en 1796, el matemático y

astrónomo Fierre Simón, marqués de Laplace, hizo unas consideraciones semejantes en su Exposición del Sistema del Mundo. Al mismo tiempo que anticipaban en más de un siglo la idea de una luz aprisionada por la gravitación, Laplace y Michell empezaban a considerar que los grandes cuerpos oscuros pudieran ser tan numerosos como las estrellas. En los finales de este siglo XX tan rico en conmociones científicas, la cuestión está más que nunca a la orden del día en los debates cosmológicos; parece en efecto que una fracción importante de la masa total del Universo está «oculta» bajo la forma de materia oscura. El estudio en profundidad de los astros invisibles (que no reciben su nombre de «agujeros negros» hasta 1968) no puede sin embargo ser llevado a buen término más que en una teoría de la gravitación más elaborada que la de Newton. Es el caso de la Relatividad General de Einstein, que predice la existencia de agujeros negros del mismo «formato» que el vislumbrado por Michell y Laplace. Sin embargo, cuando la cuestión se examina más detenidamente, el acuerdo entre las teorías de Newton y de Einstein en cuanto al tamaño de los astros invisibles es más bien superficial. Según Newton es posible para la luz escaparse de la superficie si la velocidad de escape es mucho mayor que 300.000 km/s (¡siempre se puede lanzar un proyectil!). Ahora bien, en Relatividad General, ya no se puede hablar realmente de velocidad de escape, no pudiendo la luz abandonar de ninguna manera la superficie de un agujero negro; antes al contrario, permanece en ella: la superficie de un agujero negro es como una envoltura de luz tejida de rayos que se enrollan indefinidamente en torno a ella sin poder escaparse nunca. Veremos incluso (cap. 11) que para los agujeros negros con rotación propia, la superficie en que la luz se halla atrapada y la superficie del agujero negro son distintas. Aunque de un gran valor histórico y didáctico, la descripción de un agujero negro en términos de velocidad de escape de la luz tiene pues un carácter excesivamente simplista. Hasta la llegada de la Relatividad General, las ideas de Michell Las primicias

y Laplace permanecieron en un completo olvido pues por una parte no se tenía ningún incidió de la existencia de tales concentraciones de materia en el Universo (y con razón, siendo astros invisibles), y por otra parte, su especulación reposaba sobre la hipótesis —ya sostenida por Newton— de que la luz está compuesta de corpúsculos regidos, como la materia ordinaria, por las leyes de la gravitación. Ahora bien, la teoría ondulatoria de la luz, que no la considera más que como una vibración de un medio, triunfaba a lo largo de todo el siglo XIX. Con esta nueva representación, la onda luminosa no es afectada por la gravitación, lo que volvía caducas las ideas de Michell y Laplace. Los sabios y la. teoría de los campos Decir que la materia atrae a la materia en razón directa a las masas y en razón inversa al cuadrado de las distancias permite calcular el movimiento de los planetas pero no responde a otras preguntas más profundas: ¿Cuál es la naturaleza de la fuerza gravitatoria? ¿Cómo es generada por la materia? ¿Cómo puede ejercerse entre cuerpos separados por el vacío? La fuerza de atracción de Newton no se transmite por contacto como la fuerza del caballo que tira de un carro o la del jardinero que hinca su alzada. Actúa a distancia, como una especie de emanación de la materia. La idea de una fuerza que se ejerciese instantáneamente y sin soporte material era completamente incongruente en la visión mecanicista del Universo que Rene Descartes había expuesto de modo magistral en 1644 en sus Principios de la Filosofía, sentando así las bases de la ciencia moderna. El mismo Newton, perfecto mecanicista, había considerado prudentemente su ley como un simple artificio

matemático que permitía calcular los movimientos de los cuerpos, pero no como una realidad física; escribió que imaginar que la gravitación pudiera actuar instantáneamente y a distancia era un absurdo que ningún filósofo digno de este nombre podría admitir. Laplace, una vez más, había tratado incluso de modificar la teoría de Newton a fin de tener en cuenta una velocidad finita de propagación de la gravitación. Tenía razón en el fondo (se sabe desde Einstein que la gravitación se propaga a la velocidad de la luz), pero se equivocaba en la forma: calculó en efecto que la velocidad de la gravitación debería ser... ¡siete millones de veces la de la luz!

Un poco más tarde, en el siglo XIX, resurgieron las mismas preguntas sobre la acción instantánea cuando se trató de describir la fuerza eléctrica. Esta tiene en común con la fuerza gravitatoria el ser proporcional al producto de las cargas de los dos cuerpos (la fuerza gravitatoria es proporcional al producto de las masas) e inversamente proporcional al cuadrado de la distancia. Sin embargo, mientras que los físicos se habían acomodado finalmente — a falta de algo mejor — a la idea de acción a distancia para la gravitación, rehusaron hacerlo para la electricidad. Es por ello por lo que Michael Faraday y James Clerk Maxwell elaboraron la noción de campo, mediador de las acciones entre los cuerpos y propagándose a velocidad finita. En lugar de decir que dos cargas eléctricas se atraen o se repelen a través del espacio vacío por intermedio de una fuerza instantánea, se puede decir que cada una de las cargas produce en torno a ella un «campo eléctrico» cuya intensidad disminuye con la distancia. La fuerza experimentada por cada una de las cargas es así atribuida a la interacción local entre los campos de una y otra. La misma conceptualización es aplicable a la fuerza gravitatoria: ésta se ejerce sobre todo cuerpo sumergido en el campo gravitatorio cuya fuente es otro cuerpo. Más que un simple cambio de vocabulario la ventaja fundamental del campo es la de reemplazar la acción instantánea a distancia por una acción diluida en el espacio y extendida en el tiempo. La teoría de los campos, que corona la física clásica; iba a socavar paradójicamente las bases del edificio newtoniano conduciendo al electromagnetismo y después a la revolución relativista. La luz según Maxwell A finales del siglo XIX, se clasificaba a las fuerzas capaces de ejercerse sobre la materia en tres tipos: las fuerzas gravítatorias, las fuerzas eléctricas y las fuerzas magnéticas. La electricidad se caracteriza por la existencia de dos clases de cargas eléctricas, una positiva, la otra negativa. Las cargas del mismo signo se repelen, las de signos contrarios se atraen, con una intensidad que varía con la distancia de la misma manera que la interacción gravitatoria. El magnetismo designa el conjunto de fenómenos relativos a los imanes, que atraen el hierro y se orientan sobre la superficie de la Tierra en la dirección de los polos. El imán tiene también dos polos, el «Norte» y el «Sur», los semejantes se repelen y los contrarios se atraen. Atracción, repulsión... Marcados por el mismo sello electricidad y magnetismo parecen primos. Los griegos ya lo habían presentido. Habían notado que el ámbar (en griego: elektron) frotado con un paño de lana era capaz de atraer briznas de paja y que una cierta

resina fósil llamada magnes atraía partículas de hierro. En el siglo VI a. C., Tales de Mileto, el más moderno de los geómetras griegos, presintió que la electricidad y el magnetismo no eran más que dos manifestaciones de un mismo fenómeno, sugiriendo que estas raras sustancias tenían un «alma» que aspiraba los objetos vecinos. Veinticuatro siglos más tarde, el físico danés C. Oersted impartía un curso práctico de electricidad. Por azar, una aguja imantada se encontraba próxima al equipo (eléctrico). Oersted se apercibió de que, cada vez que introducía corriente en el circuito, la aguja imantada se desviaba. Animados por este feliz descubrimiento, André Ampére y François Arag esbozaron en unas semanas una teoría en la que corrientes eléctricas variables inducen fuerzas magnéticas y viceversa. A continuación, una cosecha abundante de resultados experimentales confirmó la estrecha correspondencia entre fenómenos eléctricos y fenómenos magnéticos. La teoría de la electricidad no quedó sin embargo plenamente justificada hasta el descubrimiento experimental del electrón en 1898. Esta partícula elemental, que constituye parte de los átomos, transporta una carga eléctrica indivisible, especie de grano elemental de electricidad. Esta última no es otra cosa que un desplazamiento de electrones. Un átomo normal es eléctricamente neutro, pues las cargas (negativas) acumuladas en sus electrones están exactamente compensadas por las cargas (positivas) contenidas en su núcleo. Por el contrario, en un metal conductor, hay electrones libres que se desplazan lentamente (una décima de milímetro por segundo); no obstante, como su campo se propaga a la velocidad de la luz, se establece allí una corriente eléctrica, que circula a 300.000 km/s en sentido inverso de los electrones. Del mismo modo, el magnetismo de un imán natural aparece inducido por micro corrientes que circulan a nivel molecular, y a mayor escala, el campo magnético terrestre se debe a vastos movimientos de materia conductora de la electricidad en las profundidades de nuestro planeta. La verdadera unificación de los campos eléctrico y magnético data de 1865, cuando Maxwell resumió en cuatro ecuaciones el conjunto de sus propiedades y sus relaciones mutuas: la teoría del campo electromagnético. En reposo, una carga eléctrica tiene un campo radial fijo y constante en el tiempo (Figura 1). Cuando la carga se desplaza el campo circundante debe ajustarse a la nueva localización de la carga y la perturbación en el campo se propaga a una velocidad finita, que es la de la luz. Una agitación de la carga produce una perturbación en el campo; en particular si el movimiento de la carga es periódico, las perturbaciones toman la forma de una onda, del mismo modo que la agitación continua de un palo en el agua produce ondas circulares. Maxwell predijo consecuentemente que los movimientos de cargas producen ondas electromagnéticas, que se propagan en el vacío a la velocidad de la luz. En una onda compuesta de una alternancia regular de crestas y valles, la distancia entre dos crestas consecutivas es la longitud de onda, mientras que el número de crestas por segundo es [a. frecuencia. La luz visible no constituye más que una débil parte de la radiación electromagnética, correspondiente a una estrecha banda de frecuencia (Cuadro 1). Ni que decir tiene que cuanto mayor es la longitud de onda, menor es la frecuencia: estas dos magnitudes son de hecho inversamente proporcionales. La astronomía teórica y observacional reposa sobre las propiedades de la radiación electromagnética. Las ondas electromagnéticas al transportar energía (tanto más cuanto mayor es la frecuencia) e impulso, ejercen una fuerza sobre la materia que encuentran. La luz que ilumina esta página la calienta y la empuja. El Sol exhala un soplo electromagnético capaz de desgreñar los cometas; la presión de radiación surgida del corazón estelar puede resistir al hundimiento gravitatorio.

Las repercusiones de la teoría electromagnética fueron tan grandes como las de la ley de atracción universal, y sus consecuencias teóricas y prácticas fueron decisivas para la evolución de nuestra civilización. Maxwell había muerto hacía ocho años cuando Heinrich Hertz consiguió producir ondas electromagnéticas en laboratorio (1887). Mientras un siglo dejaba paso al siguiente, Guglielmo Marconi estableció la primera transmisión de radio a través del Atlántico. Había nacido la era de las telecomunicaciones.

a) CARGA EN REPOSO

B) CARGA EN MOVIMIENTO FlG. 1. El campo electromagnético. La forma del campo se normaliza por medio de líneas que representan las direcciones de las fuerzas actuantes sobre un cuerpo en un punto dado, a) Para una carga eléctrica en reposo, las líneas de campo son radiales, b) Cuando la carga se desplaza, la perturbación en el campo electromagnético se propaga hacia el exterior a la velocidad de la luz.

Cuadro 1. El espectro electromagnético. El conjunto de todas las radiaciones electromagnéticas se extiende desde los rayos gamma para las longitudes de onda más cortas a las ondas de radio para las mayores. La luz visible, que se descompone en «colores», sólo representa una minúscula parte del espectro completo. La frecuencia mide el número de vibraciones por segundo de una onda; mide también la energía transportada por la onda, que es tanto más elevada cuanto mayor es la frecuencia (más corta la longitud de onda). Cualquier cuerpo cuya temperatura sea superior al cero absoluto radia ondas electromagnéticas cuya energía es tanto mayor cuanto mayor es la temperatura. El Universo, cuya temperatura media es de 3 K, radia ondas milimétricas; el cuerpo humano emite radiación infrarroja (que los militares se afanan en detectar); la superficie de la mayoría de las estrellas, a algunos miles de grados, emite luz visible y los cuerpos que se encuentran a vanos millones de grados emiten rayos X muy energéticos, muy penetrantes por lo tanto.

Capítulo 2 RELATIVIDADES Bruma en las ondas La teoría de Maxwell, al unificar la electricidad y el magnetismo, simplificaba aparentemente la Física. De hecho la volvía incoherente, pues llevaba insidiosamente el germen de la discordia al discurso Galileo-newtoniano sobre el Universo. El estudio detallado —tanto teórico como experimental— de las propiedades del campo electromagnético provocó en seguida dos preguntas simples que alimentaron las dos revoluciones científicas del siglo XX: Mecánica Cuántica y Relatividad. Primera pregunta: ¿cuál es la naturaleza real de la radiación? Si la teoría de Maxwell confiere un aspecto netamente ondulatorio a la radiación electromagnética, el hecho de que ésta transporte energía e impulso evoca irresistiblemente la idea de proyectiles: al final del siglo XIX gran número de experiencias de laboratorio pusieron así en evidencia, las propiedades discontinuas de la radiación. Al cambiar el siglo, Max Planck emitió la hipótesis de que las ondas electromagnéticas (y la luz en particular) no pueden radiarse o absorberse más que bajo forma de granos de energía, los cuantos. Es Albert Einstein sin embargo, en 1905, el primero que osó atribuir una existencia real a los cuantos de luz, bautizados definitivamente como fotones. Para explicar el hecho de que, cuando una placa de metal se irradia con una luz de frecuencia suficientemente elevada, le son arrancados electrones (efecto foto-eléctrico), es necesario admitir que la radiación está constituida por corpúsculos verdaderos, que llevan una energía proporcional a la frecuencia, y son capaces de extraer los electrones del metal depositando en éste toda su energía. Einstein resucitó pues la teoría corpuscular de la luz preconizada por Newton y utilizada por Laplace en sus especulaciones sobre la luz aprisionada por grandes astros oscuros. La irreductibilidad aparente entre mecánica y electromagnetismo no desaparecerá realmente más que con la Mecánica Cuántica que, veinte años después, tomará en cuenta plenamente la dualidad onda/corpúsculo de la radiación, y de toda materia en general. Segunda pregunta: ¿cuál es el soporte de la onda electromagnética? Esta vez, lo que será puesto en cuestión es la misma estructura del espacio y del tiempo, mediante la llegada de la teoría de la Relatividad. Movimiento y reposo La noción de Relatividad en Física, que ha conocido en el siglo XX un éxito tan fulgurante en los medios de información, no es en absoluto una invención de Einstein. Los fundamentos mismos de la Física reposaban ya, desde hacía tres siglos, sobre un Principio de Relatividad que se atribuye generalmente a Galileo, pero cuya formulación correcta es debida a Descartes. El uso de un Principio de Relatividad en la descripción de la Naturaleza marca la legítima voluntad de representar los fenómenos físicos con independencia de la posición y del movimiento de los observadores. Especificar los conjuntos de observadores para los que las leyes de la Física parecen las mismas conduce a determinar los puntos de vista (los Sistemas de referencia) equivalentes.

Galileo ya había hecho notar que hay identidad en la descripción de los fenómenos físicos por un experimentador encerrado en la bodega de un navío inmóvil respecto a Tierra firme —amarrado a un muelle por ejemplo— y por otro experimentador, pasajero de un navío que se aleja del muelle en línea recta y a velocidad constante. Si cada uno de ellos suelta una canica desde un metro de altura del suelo de la bodega y mide su movimiento, los resultados son estrictamente idénticos: una caída vertical que dura 0,45 segundos. Galileo había inferido que el navío que se aleja del muelle tenía un movimiento circular (a causa de la redondez de la Tierra) y obsesionado todavía con la idea antigua y medieval de la perfección circular, había deducido de ello que el movimiento circular representaba el estado «natural» de los cuerpos, no distinguible del reposo. Descartes descubrió que se trataba de hecho del movimiento de traslación uniforme, es decir sobre una recta infinita, a velocidad constante (sin aceleración ni deceleración). En nuestros días, ¿qué viajero de un tren parado en una estación al observar desde la ventana la lenta salida de un tren próximo no ha tenido la impresión de que era su propio tren el que partía en sentido contrario? Estas constancias son simples pero profundas pues sugieren que en definitiva no existe diferencia alguna entre el reposo y el movimiento de traslación uniforme. Y como el reposo es la inercia, el movimiento de traslación uniforme, equivalente al reposo, es también inercial. El Principio de Inercia se enuncia pues del modo siguiente; un cuerpo libre, es decir que no está sometido a ninguna fuerza, tiene un movimiento de traslación uniforme. La Tierra misma es el soporte de un Sistema de referencia que se aproxima mucho al ideal inercial: en su movimiento alrededor del Sol y en la limitada duración de las experiencias de laboratorio al uso está animada, en primera aproximación, de un movimiento rectilíneo con velocidad constante de 30 km/s. La determinación completa del sistema de referencia inercial «Tierra» se efectúa eligiendo direcciones orientadas hacia las estrellas fijas, con el fin de compensar el movimiento de rotación diurna de nuestro planeta. Un tirador, un tren El Principio de Inercia confiere al conjunto de sistemas de referencia en traslación uniforme un estatuto privilegiado, en la medida en que las leyes fundamentales de la Naturaleza toman en ellos su forma natural «de reposo». La Relatividad Galileana y a continuación de ella la Relatividad Restringida de Einstein están las dos fundadas sobre la identificación entre sistemas de referencia inerciales v sistemas de referencia en traslación uniforme. Sin embargo no basta con determinar la naturaleza de los sistemas de referencia inerciales. El físico, sabiendo describir los fenómenos en uno de ellos, debe ser capaz además de describirlos en cualquier otro; dicho de otro modo, debe proporcionar las fórmulas de paso de un sistema de referencia a otro. En este punto crucial difieren la Relatividad Galileana y la Relatividad Restringida. Para ilustrar estas abstractas nociones, el ejemplo favorito de Einstein era el de un tren rodando paralelamente a un talud a velocidad constante de 108 km/h, es decir v = 30 m/s. El talud representa aquí el espacio en reposo respecto al cual el tren se desplaza con movimiento uniforme. Se está pues en presencia de dos sistemas de referencia inercial: el tren y el talud. Imaginemos ahora un viajero encaramado al techo de un vagón, que dispara una bala de fusil en el sentido de marcha del tren. La velocidad de la bala respecto al tirador es v' = 800 m/s. Según las fórmulas de transformación de Galileo que expresan el paso del sistema de referencia inercial «tren» al sistema de referencia inercial «talud», la velocidad de la bala medida por un observador que ha permanecido en el talud viene dada por v + v' = 830 m/s.

Si el viajero gira 180° y tira en sentido opuesto a la marcha del tren, la velocidad de la bala medida desde el talud es v — v' = 770 m/s. En acuerdo con el sentido común, las fórmulas de trasformación de Galileo se reducen a la simple adición (vectorial) de velocidades. El éter El éter, el patito feo de la mecánica clásica... Max Planck

Puesto que todos los sistemas de referencia en traslación uniforme son equivalentes al reposo, deberá existir por ello uno realmente inmóvil, enraizado en el espado absoluto de la geometría euclídea. Para Galileo este espacio absoluto se ligaba al Sol, centro del Mundo. Para Newton será el éter, la quinta esencia (quintaesencia) de Aristóteles, sustancia vibrante perfectamente rígida que impregna tanto el «vacío» como los cuerpos materiales. El advenimiento de la teoría electromagnética reforzará de forma considerable la creencia en el éter. Es difícil en efecto concebir una onda sin un medio en el que se propague: las ondas sonoras hacen vibrar el aire, las ondas acuáticas, el agua. La luz, ondulación de los campos eléctrico y magnético, debe propagarse pues en un medio vibrante, un «vacío absoluto», independiente de los observadores. Ahí encontraba finalmente el éter su verdadera definición: el soporte de las ondas electromagnéticas. Volvamos al tirador llevado por el tren a la velocidad v = 30 m/s. Guarda su fusil y enciende una potente fuente de alumbrado, dicho de otro modo «dispara» rayos luminosos (los proyectiles son fotones) a la velocidad de 300.000 km/s. Según las fórmulas de transformación de Galileo, el observador del talud debería medir una velocidad de la luz igual a c + v = 300.000,030 km/s en el sentido de marcha del tren y c - v = 299.999,970 km/s en sentido opuesto. Las experiencias de Michelson y Morley, en el que la Tierra representa el tren y el éter el talud, prueban que ¡este razonamiento es falso! Una carrera amañada Estas famosas experiencias, realizadas entre 1881 y 1894 por Albert Michelson y Edward Morley, se suponía que iban a poner en evidencia la velocidad «absoluta» de la Tierra respecto al éter. Para conseguirlo, construyeron un «interferómetro» muy sensible que, midiendo la diferencia de trayecto entre señales luminosas emitidas en el sentido del movimiento de la Tierra y en la dirección perpendicular permitiría revelar el movimiento absoluto de nuestro planeta con una precisión de algunos kilómetros por segundo. Mejor que un tren que transporta un iluminador, el principio de las experiencias de Michelson y Morley es el de una carrera entre dos barcos animados de una misma velocidad c, en un río que fluye a una velocidad uniforme v (Figura 2). Los barcos efectúan un recorrido de ida y vuelta; el barco A navega primero en el sentido de la corriente y luego remonta, mientras que el barco B atraviesa el río de una orilla a otra. La distancia recorrida por los barcos es exactamente la misma: dos veces la anchura del río. ¿Quién gana la carrera? La aplicación del teorema de Pitágoras prueba que el barco A es el ganador. En la experiencia de Michelson y Morley, c representa, claro está, la velocidad de la luz y v la velocidad del éter respecto a la tierra. Sin embargo, en este caso, los resultados son diferentes: ¡los

FlC. 2. Carrera de barcos. El barco A navega paralelo a la corriente. En la primera mitad del recorrido la velocidad de la corriente V se añade a su velocidad propia c, en La segunda mitad se sustrae. Su tiempo recorrido es por consiguiente: tA = l/(c + v) + l/(c - v) = 2k/(c2 - v2) El barco B navega perpendicularmente a la comente. Su velocidad propia se compone con la velocidad de la. corriente según el teorema de Pitágoras. Su tiempo recorrido es: Puesto que tE/tA = ^V = 21/A — v /c < 1, el barco B gana siempre la carrera.

«Barcos fotones» llegan siempre al mismo tiempo! ¿Qué sentido cabe dar a esto? ¿Está la Tierra absolutamente inmóvil en el éter? ¿O es el propio éter el que es sólo una quimera? A posteriori, si se da crédito al electromagnetismo, nada hay de sorprendente en el resultado negativo de las experiencias de Michel-son y Morley. La teoría de Maxwell entra en conflicto manifiesto con la Relatividad Galileana, puesto que la velocidad de la luz aparece en aquélla como un invariante absoluto, independiente de cualquier sistema de referencia inercial. El observador del talud al medir la velocidad de la luz proyectada por nuestro iluminador no encuentra 300.000,030 ó 299.999,970 km/s sino estrictamente 300.000 km/s, cualquiera que sea la orientación del haz luminoso: la velocidad de la luz es la misma estrictamente en todas direcciones y en todos los sistemas de referencia inerciales. Mientras que la Relatividad Galileana se había concebido precisamente para traducir la universalidad de las leyes de la Naturaleza en los sistemas de referencia inerciales, las

ecuaciones de Maxwell que gobiernan los fenómenos electromagnéticos están en flagrante contradicción con ella. Única conclusión posible: la concepción galileo-newtoniana del espacio y del tiempo no se adapta a la teoría electromagnética. Hay que rechazar o la una o la otra. La Relatividad Restringida Cuando en 1905 Einstein toma conciencia de este antagonismo, se inclina sin ninguna duda a favor del electromagnetismo, erigiendo como postulado que la velocidad de la luz en el vacío es un invariable absoluto, la velocidad máxima de transmisión de cualquier señal. La Relatividad Galileana, incompatible con este postulado, debe desaparecer dando paso a una nueva Relatividad, calificada ulteriormente de Restringida en oposición a la Relatividad General que saldría a la luz diez años más tarde. En este relevo entre la Relatividad Galileana y la Relatividad Restringida lo que cambia son las fórmulas de transformación de un Sistema de Referencia inercial a otro (mientras que en la Relatividad General la inclusión de la gravitación obligará a cambiar la naturaleza misma de los Sistemas de Referencia inerciales). Las transformaciones de Galileo ceden su puesto a «las transformaciones de Lorentz», que conservan las ecuaciones de Maxwell y el carácter absoluto de la velocidad de la luz. En la experiencia del tirador en el tren, la fórmula galileana de adición de velocidades W = v + V se reemplaza por una fórmula un poco más complicada que preserva la invaríancia de la velocidad de la luz, de modo que incluso si v = v' = c, W permanece igual a c. El buen sentido del lector puede sublevarse ahora y mantener que el observador del talud no debería medir sino los 830 m/s y 770 m/s, obtenidos por medio de las transformaciones de Galileo. Sin embargo el conflicto es inexistente, en la medida en que las fórmulas de Lorentz sólo dan un resultado sensiblemente diferente de las fórmulas de Galileo si las velocidades que entran en juego son extremadamente elevadas, superiores con creces a las velocidades humanas. Aunque se considere el movimiento de la Tierra alrededor del Sol, a la ya impresionante velocidad de 30 km/s, la modificación aportada por las fórmulas de Lorentz sólo es de uno por diez mil. Es preciso de hecho alcanzar velocidades superiores a 100.000 km/s para que los efectos relativistas lleguen a ser verdaderamente importantes. (Cuadro 2). Esta es la razón por la que la mecánica newtoniana había parecido estar entonces perfectamente adaptada a la descripción de los fenómenos físicos y por lo que aún hoy continúa dando excelentes resultados en todas las situaciones en las que no entren en juego velocidades muy altas. Una teoría «en el aire» No desdice en nada el mérito de Einstein el señalar que en el cambio de siglo un buen número de físicos de la época eran perfectamente conscientes del callejón sin salida en el que se encontraba la Física como consecuencia de las experiencias de Michelson y Morley

Cuadro 2. Los efectos de la Relatividad Restringida no se hacen notar más que a velocidades muy próximas a la de la lux, mientras que a pequeñas velocidades, las relaciones entre las magnitudes (longitud, masa, tiempo) en movimiento y las magnitudes en reposo permanecen próximas a la unidad.

. Algunos de ellos, como Hendrik Lorentz y Henri Poincaré, presentían incluso las razones profundas de ello. Fue Lorentz el primero (1904) que puso en evidencia la variación del tiempo y de las longitudes con la velocidad del Sistema de Referencia. Poincaré en 1905 introdujo, en el artículo Sobre la dinámica del electrón publicado en los Informes de la Academia de Ciencias de París el formalismo matemático que Minkowski pondrá a punto de modo definitivo en 1908, haciendo figurar el tiempo como cuarta dimensión. La nueva Relatividad estaba verdaderamente «en el aire». El manuscrito de Albert Einstein; Sobre la electrodinámica de los cuerpos en movimiento, llegó al periódico científico alemán Annalen der Physik (Anales de Física) un mes después de la publicación de Poincaré. Parece ser que Einstein, modesto empleado entonces de la oficina de patentes de Berna, no había conocido con anterioridad los trabajos de sus predecesores. La Relatividad Restringida había nacido realmente, pues Einstein no se contentaba con dar recetas y fórmulas: imponía un nuevo espacio-tiempo tejido por la luz. El tejido luz Las concepciones del espacio y del tiempo que quiero plantear ante ustedes han brotado de la física experimental; ahí reside su fuerza. Son radicales. En adelante, el espacio como tal y el tiempo en sí mismo están condenados a desvanecerse en humo y únicamente una especie de unión de los dos podrá preservar una realidad independiente.

Hermann Minkowski, 1908 En el Universo de Galileo y Newton, el espacio y el tiempo son absolutamente independientes uno de otro. El espacio es de dimensión tres, es decir que son precisos tres números (tres coordenadas) para localizar cualquier punto del espacio. Se mide por la geometría eudidea (geometría significa literalmente «medida de la Tierra»). Es que aprendimos en la escuela porque sus leyes se verifican perfectamente en la vida diaria.: el camino más corto para ir de un punto otro es la recta que les une, dos rectas paralelas sólo se cortan en e infinito, la suma de los ángulos de un triángulo es igual a 180°, etc. La separación espacial entre dos puntos es independiente del observador que la mide. El tiempo se mide con un solo número, pero se diferencia de una dimensión espacial por el hecho de que fluye siempre en la misma dirección, del «pasado» hacia el «futuro». Esta sucesión irreversible de fenómenos y acontecimientos, impuesta por la observación y la razón («la causa precede siempre al efecto»), se llama causalidad. El tiempo, como el espacio, es el mismo para todos los observadores. Puesto que no hay límite de velocidad, todos los relojes, por alejados que se encuentren en el espacio, pueden sincronizarse instantáneamente y batir indefinidamente al mismo ritmo. La escritura causal

del espacio-tiempo galileo-newtoniano se reduce pues a un presente que se extiende simultáneamente a todo el espacio, separando el pasado del futuro (Figura 3). El tiempo y el espacio como entidades absolutas fueron objeto de controversia para el filósofo matemático Wilhelm Leibmz, contemporáneo de Newton. Por argumentos de orden filosófico que el espacio y el tiempo no existían sino en relación con la materia. Pasados dos siglos, la Relatividad de Einstein realiza parcialmente los deseos de Leibniz. Duración y longitud no son ya cantidades intrínsecas, puesto que dependen de la velocidad del observador relativa al objeto medido. La estructura galileo-newtoniana de espacio y de tiempo absolutos se borra frente a una nueva estructura de cuatro dimensiones, el espaciotiempo de Minkowski. Un punto del espacio-tiempo es en realidad un suceso, localizado a la vez por sus tres coordenadas espaciales y su coordenada temporal. La separación entre dos sucesos se mantiene absoluta (independiente del Sistema de Referencia), pero es una combinación de las separaciones espacial y temporal, las cuales no se conservan individualmente. Una representación particularmente «instructiva» del espacio-tiempo es la de los conos de luz que utilizaré frecuentemente en adelante. Imaginemos un punto del espacio y un destello de luz emitido en este punto. En el espacio vacío de toda materia, el frente de la onda luminosa es una esfera perfectamente centrada en el punto de emisión, creciendo esta esfera en el transcurso del tiempo a la velocidad de la luz (Figura 4). indidividualmente.

FlG. 3. Estructura causal del espacio-tiempo de Newton (se ha suprimido una dimensión espacial). Cada punto P viene caracterizado por un tiempo Universal, en todo el espacio simultáneamente. Las trayectorias de los cuerpos fluyen del pasado al futuro sin restricción, salvo el caso extremo de las de los cuerpos desplazados infinitamente deprisa, que se mantendrían a tiempo constante.

Suprimamos ahora una dimensión espacial para poder representar la onda en una hoja de papel. La esfera luminosa en expansión en el tiempo se convierte en un cono, cuyo vértice representa el lugar y el instante (es decir el suceso) en el que se ha emitido el destello, describiendo el mismo cono como la historia de la señal luminosa. La Figura 5 es un diagrama espacio-tiempo en el que se representan los conos de luz centrados en algunos sucesos. Para un suceso dado E, el cono de luz está constituido por dos zonas, una que pertenece al pasado del suceso y la otra a su futuro. Estas zonas son barridas por el conjunto de trayectorias de rayos luminosos que pasan por el suceso, tanto los que llegan provenientes del pasado como los emitidos hacia el futuro.

El postulado fundamental de la Relatividad Restringida exige que ninguna partícula material pueda sobrepasar la velocidad de la luz, constante absoluta independiente de todo movimiento. Ello significa que cualquier partícula sólo puede recorrer en un segundo distancias inferiores a 300.000 km y que la luz recorre exactamente esta distancia. En el diagrama espacio-tiempo, esta propiedad se traduce por el hecho de que toda partícula material tiene una línea de universo (nombre dado a una trayectoria del espacio-tiempo) situada en el interior del cono de luz y que en el caso límite de los fotones (partículas de luz) sus líneas de universo si sitúan exactamente sobre la superficie del cono de luz, puesto que ellos mismos lo engendran. La estructura causal del espacio-tiempo de Minkowski se distingue así radicalmente de la del espacio-tiempo de Newton; la diferencia estriba esencialmente en el hecho de que la velocidad de la luz es la máxima velocidad de transmisión de cualquier señal. En cada suceso E, el cono de luz divide el espacio-tiempo en dos partes:

FIG. 4.

La representación del cono de luz. Una señal luminosa es emitida en un punto dado. El frente de la onda luminosa es una esfera en expansión a la velocidad de 300.000 km/s, representada en A) para tres instantes sucesivos. La representación del cono de /KZ B) resume toda la historia del frente de onda en un único diagrama espacio-tiempo. Cuando se suprime una dimensión espacial, una esfera viene representada por un círculo (en la proyección una elipse). La expansión de los círculos de luz genera un cono cuyo origen se encuentra en el punto de emisión. Si se adopta el convenio de que la unidad de distancia en el diagrama espacio-tiempo es de 300.000 km y la unidad de tiempo 1 segundo, los rayos luminosos dan lugar a rectas inclinadas 45°.

FlG. 5. El espacio-tiempo de la Relatividad Restringida. Para cada suceso E del espacio-tiempo los rayos luminosos dan lugar a las dos regiones del cono de luz. Los rayos emitidos desde E barren la región del futuro, los recibidos en E barren la región del pasado (zona gris). Las partículas materiales, que no pueden desplazarse más rápido que la luz, poseen trayectorias confinadas en el interior de los conos de luz. Ningún rayo luminoso o partícula que pase por E puede penetrar en «la otra parte» (zona blanca). La invariancia absoluta de la velocidad de la luz en el vacío se traduce por el hecho de que todos los conos de luz tienen la misma inclinación: el espacio-tiempo de la Relatividad Restringida, vacío de materia gravitatoria, es rígido.

Los sucesos que pueden ser influenciados por una señal electromagnética surgida de E (el interior del cono) y los que no pueden (el exterior del cono, o la «Otra parte»). La Relatividad Restringida prohíbe a una línea de universo salir del cono de luz para entrar en la Otra parte y viceversa’. En resumen, las trayectorias de los rayos luminosos permiten visualizar la trama del espacio-tiempo. En la Relatividad Restringida, vacía de gravedad, todos los conos de luz que pasan por todos los sucesos son «paralelos» entre ellos. La trama del espacio-tiempo de Minkowski es pues indeformable, «plana». La rigidez separada del espacio y del tiempo galileo-newtonianos se ha transferido al nivel de la asociación espacio-tiempo. Play Time

A la cualidad de causalidad, la Relatividad de Einstein añade a su vez la cualidad de elasticidad. El tiempo medido por un reloj transportado por un observador, llamado tiempo propio, es diferente del de relojes en movimiento relativo. Es cierto que esta diferencia sólo es apreciable a velocidades próximas a la de la luz; esto no impide que la aplicación de estas nuevas reglas del tiempo conduzca a situaciones sorprendentes. La célebre paradoja de los gemelos ha hecho correr mucha tinta a este respecto. Consideremos unos hermanos gemelos de 20 años de edad. Uno de ellos parte a explorar el Cosmos a bordo de un cohete. Efectúa una ida y vuelta, a la velocidad constante de 297.000 km/s (99 % de la velocidad de la luz), hacia un planeta muy lejano situado a 20 años-luz? Cuando vuelve a la Tierra, el reloj del viajero ha marcado 6 años de tiempo propio, el de su hermano que permaneció en la Tierra 40 años. Se trata realmente en este caso de tiempo vivido: los relojes biológicos se reducen en última instancia a relojes atómicos, siendo pues afectados del mismo modo. Se puede igualmente medir la edad de los hermanos en número de latidos cardiacos: el viajero tiene realmente veintiséis años a su vuelta, el gemelo sedentario tiene 60 años. Sin embargo, no prohíbe las líneas de universo situadas completamente en «la otra parte». Las hipotéticas partículas que recorren «la otra parte» a velocidades siempre superiores a la de la luz, llamadas «taquiones», provocan delicados problemas de interpretación, y de todas maneras no han sido nunca detectadas en laboratorio.

Este sorprendente efecto fue explicado en 1911 por el físico francés Paul Langevin: entre todas las líneas de Universo que enlazan los sucesos (en este caso salida y llegada del cohete a la Tierra) la que tiene mayor tiempo propio es la no acelerada (Figura 6). El viajero debe acelerar y desacelerar necesariamente para efectuar el viaje de ida y vuelta, siendo la situación no simétrica; su tiempo propio es así pues menor que el de su hermano 2. Aunque es paradójico en el plano psicológico, la experiencia ficticia de los gemelos no es una contradicción interna de la Relatividad de Einstein, antes al contrario ilustra una consecuencia ineluctable de la elasticidad del tiempo. Se comprende así que, contra la opinión habitual, la teoría de la Relatividad, aunque prohíbe sobrepasar la velocidad de la luz, favorece la exploración del lejano Cosmos. Una «variante» de la experiencia de los gemelos (que supone aceleraciones instantáneas) considera que la nave espacial mantiene una aceleración constante (respecto a su sistema de referencia inercial instantáneo), igual a la aceleración de la gravedad terrestre —bien confortable pues para el cosmonauta—. La velocidad de la nave aumentará rápidamente aproximándose a la velocidad de la luz, sin alcanzarla jamás. A bordo, el tiempo fluirá mucho más despacio que en la Tierra. En dos años y seis meses por su propio reloj, la nave alcanzará la estrella más próxima (Alpha Centauri), situada a cuatro años-luz y al cabo de cuatro años y medio habrá recorrido cuarenta años-luz, mientras que en la Tierra habrán pasado cuarenta años. El Centro de la Galaxia se alcanzará en diez años, habiendo pasado quince mil años en la Tierra. En veinticinco años de tiempo propio (menos que la duración de la vida del cosmonauta), la nave sería capaz de dar la vuelta entera al Universo observable, es decir ¡treinta mil millones de años-luz! Mejor le sería no volver a la Tierra: el Sol se habría apagado mucho antes, después de haber calcinado a sus planetas. Este fantástico viaje es desdichadamente irrealizable en razón de la enorme cantidad de energía necesaria para acelerar permanentemente el navío. El mejor medio sería transformar la misma sustancia del navío en energía de propulsión. Si se supone una conversión La diferencia entre los tiempos vividos no reside únicamente en las aceleraciones de! viajero, sino que depende esencialmente de la duración total de la experiencia. I as aceleraciones sólo intervienen a la hora de confrontar el tiempo del viajero con e' de la Tierra.

FlG. 6. La paradoja de los gemelos de Langevin. La línea de Universo con mayor tiempo propio es la que no está acelerada (eje vertical). Para el gemelo que permanece en Tierra, han pasado cuarenta años. Su hermano, viajero acelerado a la partida, a mitad de camino y en el retorno se desplaza el resto del tiempo a velocidad constante; su tiempo propio (indicado por las cifras) es tanto menor cuanto más próximo se encuentra su trayecto al cono de luz (línea de puntos; en el limite, el tiempo propio de los rayos luminosos es estrictamente nulo). La línea curva indica el trayecto de otro viajero que acelera de forma continua hasta, la mitad del camino, y después desacelera.

perfectamente eficaz, se puede calcular lo que costaría un viaje hacia el Centro Galáctico: a la llegada, al navío no le quedaría más que la rnilmillonésima parte de su masa inicial. ¡Una montaña transformada en ratón! La bomba relativista Si lo hubiese sabido, habría sido relojero. Albert Einstein

La Relatividad Restringida se ha convertido en una de las teorías mejor verificadas de toda la física. Los extraños fenómenos del tiempo elástico han sido probados de forma experimental, no sobre seres humanos (la experiencia sería cruel sin duda) sino con partículas elementales a las que se sabe acelerar a velocidades próximas a la de la luz a cambio de razonables gastos de energía. Del mismo modo, relojes atómicos de enorme precisión se han colocado a bordo de aviones. A su vuelta a la Tierra, habían girado más despacio que relojes idénticos que estaban en el suelo 3. Mucho más que las fórmulas de transformación entre sistemas de referencia inerciales, la estructura en cuatro dimensiones del espacio-tiempo, incluso que la elasticidad del tiempo, nociones bastante abstractas, el símbolo eminentemente popular de la Relatividad Restringida es el de la equivalencia masa-energía, expresado en su forma más simple por E = me2. Si en 1905 no se vislumbraban todavía los progresos prácticos que la Relatividad Restringida podía aportar a la humanidad, su impacto filosófico fue inmediato en la medida en que nuestras costumbres milenarias de representación del espacio y del tiempo revelaban ser inadaptadas al mundo real. Algunos «filósofos» como Bergson rehusaron revisar su concepto del mundo y calificaron la teoría de Einstein como pura abstracción. Triste ironía del destino, es la consecuencia más dramática de la Relatividad Restringida la que despejaría las últimas dudas a este respecto: la aniquilación de Hiroshima por la bomba atómica. Si un viajero pasase 60 años de su vida a bordo de un avión volando sin parar 1 una velocidad de 1.000 km/h, sólo ganaría en total una milésima de segundo respecto de otro que permanezca en tierra.

La Relatividad Restringida está permanentemente presente en el universo de las grandes velocidades y de las altas energías. La lluvia de rayos cósmicos que irrumpe en la alta atmósfera terrestre crea haces de partículas elementales llamadas mesones cuyo tiempo de vida en vuelo nos parece cincuenta veces mayor que su tiempo de vida propio. Más aún, la Relatividad Restringida permite entender por qué brilla el Sol, convirtiendo cuatro millones de toneladas de materia por segundo en energía radiante. Ahí se ha establecido con toda claridad un puente entre Relatividad y Astrofísica. Sin embargo los agujeros negros por los que nos interesamos en primer lugar en este libro, no tienen nada que ver con la Relatividad Restringida. Los agujeros negros son ante todo una manifestación de la gravitación mientras que el espacio-tiempo de la Relatividad Restringida sólo describe un vacío idealizado en el que se desplazan ondas electromagnéticas y partículas de masa suficientemente pequeña como para poder despreciar su peso. En el universo real de las estrellas, galaxias y agujeros negros todo gravita. Para tratar de comprenderlo es preciso llevar más allá la «demolición» del espacio y del tiempo. Ese es el desafío de la Relatividad General.

Capítulo 3

EL ESPACIO-TIEMPO CURVO El principio de equivalencia Tengo como cierto que el pensamiento puro es competente para entender la realidad. Albert Einstein, 1933

Si, en el mismo año 1905, Einstein resucitaba por una parte la teoría corpuscular de la luz y por otra volvía coherente el electromagnetismo de Maxwell, se encontraba al mismo tiempo frente a un dilema preocupante. Estos dos aspectos de la radiación son en efecto contradictorios: si la luz está compuesta de corpúsculos materiales, debe ser influenciada por la materia en virtud de la atracción universal entre los cuerpos; pero, en éste ¿cómo puede ser su velocidad de propagación la constante absoluta c preconizada por la Relatividad Restringida? La responsable del conflicto, es, claro está, la gravitación, esta gravitación omnipresente en la Naturaleza que acelera la materia, mientras que los Sistemas de referencia inerciales de la Relatividad Restringida son precisamente los no acelerados. La gravitación es manifiestamente ignorada por la Relatividad Restringida. Einstein, plenamente consciente de esta anomalía, comprendió que la incorporación de las fuerzas gravitatorias en el espacio-tiempo «electromagnético» de la Relatividad Restringida pasaba por un nuevo análisis del concepto mismo de «fuerza». La fuerza de atracción universal de Newton pone en juego una característica intrínseca de los cuerpos que se llama la masa gravitatoria, especie de medida de la cantidad de gravitación que tiene un cuerpo material. Por otra parte, Newton había resumido en tres leyes las bases de la mecánica de los cuerpos materiales sometidos a fuerzas de cualquier naturaleza, saliéndose del cuadro puramente gravitacional de la atracción universal. La primera ley no hace más que retomar el Principio de Inercia enunciado por Descartes: en ausencia de fuerzas, el movimiento de un cuerpo es el reposo o la traslación uniforme. La segunda ley estipula que un cuerpo acelerado está sometido a una fuerza proporcional a esta aceleración y a su masa. (Es la célebre fórmula F = ma.) La tercera enuncia la dualidad acción-reacción: cada fuerza de acción (nos apoyamos en una pared) se acompaña de una fuerza de reacción igual y opuesta (la pared se apoya en nosotros). La fuerza newtoniana es pues lo que fuerza, lo que obliga a un cuerpo material a apartarse de su movimiento inercial, y la resistencia del cuerpo a cualquier cambio en su estado de inercia se mide por su masa inerte. Desde este planteamiento, la fuerza de atracción universal es. una fuerza como cualquier otra, y la masa gravitatoria que le caracteriza debería ser a la gravitación lo que la carga eléctrica es a la electricidad. Se sabe por ejemplo que ciertos cuerpos están cargados eléctricamente, otros no, y que dos cuerpos de la misma masa inerte pero de cargas eléctricas diferentes son acelerados distintamente en un campo eléctrico prefijado. No hay pues ninguna razón para que, en la teoría de Newton, la masa gravitatoria y la masa inerte de un cuerpo sean idénticas. Ahora bien, la propiedad capital de la gravitación, puesta en evidencia por Galleo y Newton, es que la gravitación terrestre acelera de la misma manera todos los cuerpos materiales, independientemente de su masa gravitatoria o inerte, de su tamaño, o de su naturaleza. Una pluma, una molécula o una tonelada de hierro abandonadas cerca de la superficie de la Tierra acerelan todas igualmente 9,8 rn/s '.

1

Es decir que, cada segundo, su velocidad aumenta en 9,8 m/s; al cabo de un segundo, su velocidad es de 9,8 m/s, al cabo de 2 segundos es de 19,6 m/s, y así

En otras palabras, no sólo ningún cuerpo es «gravitacionalmente neutro», sino que todos los cuerpos materiales llevan exactamente la misma carga gravitatoria. Esto sólo es posible si la masa gravitatoria v la masa inerte son estrictamente equivalentes. Esta propiedad se ha erigido en Principio, al que se le ha dado precisamente el nombre de Principio de Equivalencia. Lo que no era inicialmente más que una equivalencia aproximada se ha convertido en una de las medidas más precisas de toda la ciencia. El barón húngaro Lorand von Eótvós verificó en 1889 y en 1922 el Principio de Equivalencia con una precisión de una mil millonésima. Más recientemente la precisión ha aumentado un factor mil (una parte en un billón). Como en un cuerpo todas las energías contribuyen a la masa inerte (principalmente la energía electromagnética que une electrones y núcleos en un átomo), se concluye de ello que toda forma de energía pesa. En particular, ¡la luz tiene peso! Einstein supo reconocer que el Principio de Equivalencia era el verdadero pasaporte de la gravitación, una gravitación totalmente extraña al imperio del electromagnetismo, y cuya admisión sólo se haría a costa de una ampliación radical de la Relatividad Restringida. Comenzaré por profundizar en el significado físico del Principio de Equivalencia. Para Einstein, la equivalencia entre masa gravitatoria y masa inerte sólo es una forma débil de una equivalencia más fuerte, la que une gravitación uniforme y aceleración (Figura 7). Einstein advierte en efecto: 1. Que toda aceleración simula la gravedad. Un ser humano colocado en un navío espacial animado de una aceleración propia igual a la gravedad terrestre no notaría ninguna diferencia con su situación sobre la superficie de la Tierra ;:". 2. Que la gravedad puede desaparecer en un Sistema de referencia acelerado convenientemente. Su ejemplo favorito es el de un ascensor al que súbitamente se le rompe el cable; en su interior un observador tendría la misma sensación de ingravidez que si se encontrase en el espacio exterior, libre de la influencia gravitatoria de cualquier planeta. Es ahí donde reside la enorme diferencia entre la gravitación y las otras fuerzas de la Naturaleza, por ejemplo la fuerza eléctrica. Es imposible simular el campo eléctrico por una aceleración, puesto que todos los cuerpos situados en un campo eléctrico no experimentan la misma aceleración (pues ésta depende de su carga). Dicho de otro modo, la gravitación no es en realidad una fuerza que se ejerce entre los diferentes contenidos materiales del espacio-tiempo, sino que es una propiedad del continente mismo. Esta fulgurante entrada de la gravitación en la estructura íntima del espacio-tiempo constituye la teoría de la Relatividad General. La nueva, inercia Conviene señalar que no hay buena física sin una buena relatividad que especifique la naturaleza de los sistemas de referencia en los que las leyes toman una forma intrínseca. A este respecto, es claro que LA Relatividad General invalida las enseñanzas de la Relatividad Restringida. En la teoría restringida, los sistemas de referencia inerciales están en traslación uniforme, libres de cualquier fuerza o aceleración. El espacio-tiempo es un desierto llano, sin característica local y esta vacuidad asegura la relatividad de posiciones y velocidades. Sin embargo en presencia de la gravitación todos los sistemas de referencia están acelerados. No existe pues sistema de referencia inercia! universal en la Relatividad General. El espacio-tiempo se deforma, adquiere «hoyos», pudiéndose entonces especificar las

posiciones y velocidades en relación a esos hoyos. Todos los sistemas de referencia, inerciales o no, son adecuados para descubrir las leyes de la Naturaleza a condición de saber pasar correctamente de uno a otro. Bajo este enfoque el mismo nombre de la teoría gravitatoria de Einstein ha sido mal elegido pues la Relatividad General es menos relativa que la Relatividad Restringida... Puesto que un campo de gravitación uniforme puede ser abolido o simulado por una aceleración y viceversa, un cuerpo que cae en ese campo es libre respecto a cualquier fuerza (si se nota la gravedad terrestre es precisamente porque no somos libres de caer hacia el centro de la Tierra: el suelo ejerce bajo nuestros pies una presión que nos lo impide). La caída libre en una gravitación constante es pues el estado «natural» del movimiento de los cuerpos. En toda región del Universo suficientemente pequeña para que la gravitación no varíe mucho, el movimiento de caída libre es la base de un sistema de referencia inercial local, en el que las leyes de la Física toman una forma más simple que en cualquier otro, y que es la descrita por la Relatividad Restringida. No se trata pues de rechazar i esta última: antes al contrario, y aquí se da lo característico de las buenas generalizaciones, la teoría sustituida por una teoría más general continúa siendo aplicable en cierto campo de validez. El golf cósmico Se sabe que el espacio-tiempo es curvo. Pero ¿qué significa esta afirmación extraña y fascinante? La paradoja de los gemelos aclaraba cómo la estructura rígida del espacio-tiempo en la Relatividad Restringida permite al espacio y al tiempo, en forma separada, experimentar distorsiones (contracción o dilatación), debidas al movimiento de los observadores. Donde la Relatividad General alcanza toda su amplitud y trastoca nuestra representación del Cosmos, es al decir que la inserción de la gravitación impone que el espacio-tiempo en su integridad se deforme. Si en un punto dado no existiese efecto directo de la gravitación se podría sin embargo medir efectos diferenciales entre puntos próximos. En el ascensor con el cable cortado, dos canicas «libres» siguen, en primera aproximación trayectorias paralelas pero en realidad las dos trayectorias se cortarían en el centro de la Tierra, 640 km más lejos. Hay pues una aceleración relativa entre las dos trayectorias (pues se juntan) que corresponde a un campo gravitatorio que corresponde a un campo gravitatorio diferencial. Una ilustración sorprendente de la distinción entre gravitación directa y gravitación diferencial es la amplitud de las mareas oceánicas. Aunque la gravitación directa del Sol en la superficie de la Tierra sea 180 veces más fuerte que la de la Luna, las mareas solares son más bajas que las mareas lunares. Esto se debe a que las mareas no resultan de la gravitación directa, sino de la variación de las gravitaciones solar y lunar en los diferentes puntos del globo. Esta variación es del 6 % para la Luna y un diecisiete por mil solamente para el Sol. En lenguaje newtoniano, los efectos de la gravitación diferencial se traducen por lo que se conoce precisamente como fuerzas de marea. Si, en todo el Sistema Solar, las fuerzas de marea son muy El espacio-tiempo curvo 59

débiles, las engendradas por un agujero negro son capaces de desgarrar estrellas enteras (ver capítulo 17). Sin embargo la descripción de la gravitación diferencial en términos de «fuerzas» de marea es absolutamente superflua en Relatividad General: sus efectos no son mecánicos sino puramente geométricos. Para verlo, consideremos dos pelotas de golf próximas entre sí que siguen inicialmente trayectorias paralelas (Figura 8). Si el terreno es perfectamente llano, las trayectorias continuarán siendo paralelas. Si no, su posición

relativa cambiará; un pequeño montículo las separará entre sí, un hoyo las aproximará. En el golf cósmico la gravitación diferencial puede simularse con una curvatura del «green» espacio-tiempo. Y, puesto que la gravitación es atractiva, ¡la curvatura está formada por hoyos y no por montículos! El significado profundo de la curvatura es pues la correspondencia entre gravitación y geometría impuesta por el Principio de Equivalencia. Los cuerpos materiales no están obligados a moverse en un espacio-tiempo «plano», bajo la acción de fuerzas de gravitación,

Fie. 7.

Ilustración del Principio de Equivalencia.

sucesivamente; claro está que es preciso hacer abstracción de la resistencia del aire. Esta aceleración constante de 9,8 m/s2, no es otra que la aceleración de^la'grnvedad en la superficie de la Tierra. • Localmente (para que la no homogeneidad del campo gravitatorio sea significativa) y prescindiendo de los aspectos ligados a la rotación f como la aceleración de Coriolis.

sino que abrazan libremente los contornos de un espacio-tiempo curvo.

Las geometrías curvas Dios escribe derecho sobre renglones torcidos. Pensador francmasónico, 1782

La palabra «curvatura» pertenece al vocabulario diario. La geometría euclídea en el espacio de tres dimensiones permite hablar de curvatura de líneas y superficies que no tienen más que una y dos dimensiones respectivamente. La circunferencia, espacio geométrico de una dimensión (hay una «longitud» pero no «anchura» ni «espesor»), está tanto más curvado cuanto menor es su radio. A la inversa, si su radio se hace infinito la circunferencia tiende hacia la recta, se rectifica perdiendo su curvatura. Análogamente, la superficie esférica tiende hacia el plano cuando aumenta indefinidamente su radio (a nuestra escala la superficie de la Tierra es plana, si se hace abstracción del relieve). La curvatura tiene así una definición geométrica bien precisa, pero cuando aumenta el número de dimensiones la definición se complica, la curvatura no se reduce ya a un sólo número como en el ejemplo de la circunferencia; es preciso hablar entonces «de las curvaturas». Examinemos el caso sencillo del cilindro, superficie de dos dimensiones (Figura 9). La curvatura medida paralelamente a su eje de simetría es simplemente nula, mientras que la curvatura medida en la dirección perpendicular es la de la circunferencia inscrita en el cilindro. A pesar de las múltiples facetas de la curvatura, es posible hablar de una curvatura intrínseca. En cada punto de una superficie de dos dimensiones, pueden medirse dos radios de curvatura de dos direcciones perpendiculares, el inverso de cuyo producto da la curvatura intrínseca de la superficie. Si los dos radios de curvatura se encuentran a un mismo lado de la superficie, la curvatura es positiva mientras que si los radios de curvatura están en lados opuestos la curvatura es negativa. El cilindro tiene pues una curvatura intrínseca nula; efectivamente es posible cortarlo y aplanarlo sobre una mesa sin desgarrarlo, lo que no se puede hacer con una esfera (Figura 10). El espacio-tiempo curvo

FIG. 9.

Las curvaturas del cilindro. Dado un punto P, se necesitan dos números para especificar la curvatura. En la dirección de una generatriz (D), la curvatura es nula; en la dirección perpendicular, es igual a la del círculo inscrito (C).

El hecho de visualizar la esfera, el cilindro y las superficies bidimensionales en general como «sumergidas» en el espacio euclídeo de 3 dimensiones incita a atribuir un significado al «interior» y al «exterior», a decir que una superficie está curvada «en alguna cosa». Sin embargo, en el estricto plano de la geometría, se pueden medir todas las propiedades de las superficies de dos dimensiones ignorando claramente la existencia del espacio que las contiene. Sucede lo mismo para cualquier número de dimensiones. Es posible hablar de la

geometría curva del Universo de cuatro dimensiones sin necesidad de salirse de él ni de referirse a un hipotético espacio aún más amplio. Veamos cómo. La teoría matemática de los espacios curvos fue desarrollada en el siglo XIX principalmente por Bernhard Riemann. Las geometrías curvas dan lugar a propiedades desconocidas en la geometría euclídea, incluso en los casos más sencillos.

Volvamos a la superficie de la esfera (Figura 11). Se trata de un espacio de dos dimensiones, cuya curvatura es positiva y uniforme (la misma en cada punto), puesto que los dos radios de curvatura son iguales al radio de la esfera. El camino más corto que une dos puntos distintos de la esfera es un arco de círculo máximo, es decir una parte de una circunferencia trazada sobre la superficie y de mismo centro que la esfera. Los círculos máximos son pues a la esfera, lo que las rectas al plano: geodésicas, es decir líneas de trayecto mínimo. Un aviador con prisa que se desplace de París a Tokyo sin escala (¡e ignorando las zonas aéreas prohibidas!) irá primero al Norte, sobrevalorará Siberia, descendiendo después hacia el Sur con objeto de realizar el trayecto menor. Como todos los círculos máximos son concéntricos, dos círculos máximos cualesquiera se cortan siempre en dos puntos (por ejemplo, los meridianos se cortan en los polos). Dicho de otra forma, en la superficie de la esfera no hay «rectas» paralelas.

Hete aquí, la geometría de Euclides descalabrada. Porque las bien conocidas leyes de la geometría euclídea son la de los espacios sin curvatura, «planos». En cuanto hay curvatura estas leyes que nos Parecen familiares se trastocan. La propiedad geométrica más evidente de la esfera es la siguiente: mientras que toda recta del plano escapa al infinito, si uno se desplaza en línea recta sobre la esfera (es decir a lo largo de un círculo máximo) se vuelve al punto de partida por detrás. La superficie esférica es pues finita, cerrada, aunque sin límite ni borde (ningún círculo máximo se interrumpe). La esfera es el prototipo ideal de los espacios finitos de cualquier número de dimensiones 2. Examinemos ahora el caso de un espacio de curvatura negativa. Siempre en dos dimensiones para simplificar, el ejemplo clásico es el hiperboloide, una parte del cual se visualiza bajo forma de silla de montar (Figura 12). Si se efectúa un desplazamiento en línea recta siguiendo fielmente los contornos de la superficie, no se vuelve en general a su punto de partida, sino que se aleja como indefinidamente. Como el plano, el hiperboloide es una superficie abierta pero ahí se termina el parecido pues, al estar curvado, el hiperboloide no es en absoluto euclídeo. Las superficies más generales no tienen porque tener una curvatura uniforme positiva o negativa, como la esfera y el hiperboloide. El valor de la curvatura varía de un punto a otro

y su signo puede cambiar de una región a otra (Figura 13)

. Pasemos ahora a la geometría cuadridimensional de la Relatividad General. Es esencial entender bien que es el espacio-tiempo el que está curvado y no solamente el espacio. Riemann había intentado ya hacer compatibles electromagnetismo y gravitación deformando (torsión) el espacio; había fracasado, pues era preciso también «torcerle el pescuezo» al tiempo. Supongamos que quisiéramos lanzar diversos proyectiles sobre un blanco situado a 10 m de distancia en el suelo. Todos los proyectiles tienen trayectorias parabólicas, que pasan por el tirador y el blanco, están sometidos únicamente a la gravitación terrestre, pero cuya altura de arco depende de la velocidad de lanzamiento inicial (Figura 14a). Si se trata de un balón

lanzado a 10 m/s, el blanco Puede alcanzarse en un segundo y medio para un arco parabólico de 3 m. Si se trata de una bala de fusil, disparada a la velocidad de °0 m/s, el blanco puede alcanzarse en dos centésimas de segundo Para un arco de 0,5 mm o bien al cabo de cien segundos tirando hacia arriba hasta 12 km de altitud cayendo la bala después 3. En el caso

límite, se puede alcanzar el blanco incluso por un rayo luminoso a la velocidad de 300.000 km/s. El arco es en este caso imperceptible del todo, siendo la trayectoria en el espacio casi rectilínea. Es evidente que los radios de curvatura de todos estos arcos de parábola son extremadamente diferentes. Añadamos ahora la dimensión temporal (Figura 14b). Los radios de curvatura medidos en el espacio-tiempo son ahora todos iguales, se trate del balón, de la bala de fusil o del fotón: del orden de un año-luz. Es pues más juicioso i decir que las trayectorias en el espacio-tiempo son «rectas» y que es el mismo espacio-tiempo el que está curvado por la gravitación terrestre. Los proyectiles, al no estar sometidos a ninguna fuerza, se limitan a seguir las geodésicas («ir en línea recta») en una geometría curva. El ejemplo precedente también muestra que el espacio-tiempo está mucho más curvado en el tiempo que en el espacio. Esta curvatura temporal, la sentimos en cuanto aumenta nuestra velocidad. Un relieve en una carretera, pequeña irregularidad de la curvatura espacial, a duras penas es notada por un peatón que marcha a ritmo tranquilo. Para un automóvil, sin embargo, circulando a 120 km/h el relieve se convierte en un peligro; introduce una distorsión mayor en la dimensión temporal. Arthur Eddington ha calculado que una masa de 1 tonelada situada en el centro de un círculo de 5 m de radio no modificaría la curvatura del espacio más que al punto de cambiar el vigésimo cuarto (24) decimal del cociente circunferencia/diámetro (el número n en la geometría euclídea). Esto muestra claramente que es necesaria una masa enorme para deformar el espacio-tiempo de forma apreciable. Si el radio de curvatura del espacio-tiempo de la superficie de la; Tierra es tan grande (un año-luz, es decir más de mil millones de veces el radio del planeta), es porque el campo de gravedad terrestre,| que acelera localmente los cuerpos en 9,8 m/s cada segundo, es muy modesto. Para comentar la inmensa mayoría de las experiencias físicas en las proximidades de la Tierra, se puede continuar utilizando; el espacio-tiempo plano de Minkowski y la Relatividad Restringida incluso el espacio euclidiano y la Mecánica Newtoniana si las velocidades son pequeñas.

A pesar de aparecer como localmente plano, el Universo está realmente deformado por la materia; no obstante, o los efectos de la curvatura sólo empiezan a ser significativos en la

proximidad de grandes concentraciones de masa (por ejemplo los agujeros negros), o bien a muy gran escala (vanos millones de años-luz) cuando se tienen en cuenta agrupaciones de millares de galaxias (cúmulos). El descubrimiento reciente de los quásars múltiples (ver capítulo 15) constituye la demostración perfecta de la realidad del espacio-tiempo curvo: los rayos luminosos emitidos por uno de estos lejanos astros nos llegan después de haber tomado caminos ópticos diferentes en el espacio-tiempo curvo, ofreciéndose unas imágenes desdobladas de una fuente única. La telaraña de luz ¡Luz... más luz! Últimas palabras de Goethe, 1832

La estructura rígida del espacio-tiempo de la Relatividad Restringida —a fortiorio la del espacio newtoniano— se ha hundido ya del todo bajo el choque de la gravitación. El espacio-tiempo es blando, deformado por la materia que contiene, desplazándose ésta en él conforme a la curvatura. Las trayectorias de los rayos luminosos continúan tomando en él sin embargo los caminos más cortos. La trama de «telaraña» del espacio-tiempo queda tejida por la luz y su representación en términos de conos de luz, resume la esencia de la teoría de la Relatividad General (Figura 15). Otra visualización muy didáctica del espacio-tiempo curvo y de su influencia en el movimiento de la materia es la de la banda elástica. Imaginad una porción de espaciotiempo reducida a dos dimensiones, bajo forma de un tejido extensible. En ausencia de cualquier objeto el tejido permanece plano. Si se deposita en él una canica, el tejido se deforma, originándose una depresión alrededor de la canica, tanto más pronunciada cuanto mayor es la masa de la canica. Este modo de representación, que parece fantástico, puede hacerse matemáticamente riguroso en lo que se llama los diagramas de inmersión sobre los que volveré en detalle para explicar ciertas propiedades extrañas de los agujeros negros (capítulo 12). La. figura 16 utiliza esta; representación para ilustrar la desviación de los rayos luminosos que pasan cerca del Sol y sus consecuencias sobre la posición aparente de las estrellas cuando hay eclipses. Las ecuaciones de Einstein La idea de que los físicos deberían estudiar en el futuro la teoría de tensores creó verdadero pánico entre ellos cuando se anunció por vez primera la verificación de las predicciones de Einstein.

A. Whitehead (1920) ^ Toda teoría tiene sus ecuaciones. Las ecuaciones del campo gravitatorio 01

Mono de Einstein relacionan el grado de distorsión del espacio-tiempo con la naturaleza y movimiento de las fuentes gravitatorias. La materia dicta al espacio-tiempo cómo debe curvarse, el espacio-tiempo dicta a la materia cómo debe moverse. La complejidad de las ecuaciones de Einstein es extrema. Y esto es así, porque las cantidades implicadas no son solamente fuerzas o i aceleraciones, ni tampoco distancias e intervalos de tiempo. Son tensores, especies de tablas de muchas componentes que contienen toda¡ la información sobre la geometría y la materia. .; La acción de la gravitación sobre la materia es en efecto más complicada que la de un campo eléctrico y requiere para su descripción entidades matemáticas más elaboradas que los números o los vectores de tres componentes. El lector se convencerá de ello si, recuerda que, en la teoría gravitacional de Newton, sólo la masa gravitatoria de un cuerpo es fuente de gravitación, estando esta masa representada por un número único ligado intrínsecamente al cuerpo

en la teoría de Einstein, la masa gravitatoria sólo es uno de los aspectos de la cantidad total de gravitación ligada al cuerpo. Ya la Relatividad Restringida (siempre aplicable en una pequeña región del espacio-tiempo en que la gravitación es uniforme) ha revelado que toda forma de energía es equivalente a masa, así pues gravita y hace gravitar. Ahora bien, la energía del cuerpo depende del movimiento relativo de los observadores que la miden. En un cuerpo «inmóvil», toda la energía está contenida en su «masa en reposo» (¡E = me2!); pero en cuanto el cuerpo se pone en movimiento su energía cinética de desplazamiento crea masa, por lo tanto gravitación. Para evaluar el efecto gravitacional de un cuerpo, es necesario pues combinar su energía en reposo con un «vector de impulso» que describe su movimiento. Esta es la razón por la que las fuentes de gravitación vienen completamente descritas por el «tensor energía-impulso». Además, en cada punto del espacio-tiempo hay que conocer 20 números para describir completamente la curvatura. Las deformaciones geométricas del espacio-tiempo requieren pues el uso de un «tensor de curvatura» (recuérdese que la curvatura se complica cuando aumenta el número de dimensiones). Las ecuaciones de Einstein no hacen más que relacionar el tensor de curvatura y el tensor energía-impulso colocando entre ellas un signo igual: ¡la materia crea la curvatura, la curvatura hace mover a la materia! No se puede en este libro explicitar más toda la riqueza de las ecuaciones de Einstein. Estas engarzan de forma tan compleja los componentes de los tensores de curvatura y de impulso-energía que no es posible en general hallarles una solución exacta, ni definir siquiera lo que es el espacio y lo que es el tiempo. Hay que simplificar las fuentes de gravitación para poder calcular «alguna cosa», hasta el punto que la mayoría de las veces las soluciones halladas (es decir espacio-tiempo curvos) no tienen relación alguna con el espacio-tiempo real. Las ecuaciones de Einstein son de alguna manera demasiado prolíficas, originan una infinidad de universos teóricos de extrañas propiedades. Esta prodigiosa fecundidad ha perjudicado quizás la credibilidad de la teoría de Einstein. No hay que creer sin embargo que la Relatividad General sólo predice propiedades inaccesibles a la observación o al entendimiento humano. Muy al contrario, Einstein era ante todo físico y filósofo y debido a ello pretendía describir el mundo, empezando por el entorno planetario. Usando soluciones aproxima-as de sus ecuaciones, calculó previamente a su teoría tres efectos

particulares de la gravitación no previstos por la ley de atracción newtoniana y medibles en el sistema solar: la desviación de rayos luminosos que bordean el Sol, las anomalías del movimiento de Mercurio y la disminución de las frecuencias electromagnéticas en un campo gravitatorio. Hablaré en el párrafo siguiente del éxito de estas tres predicciones de la Relatividad General. Por otra parte, existen situaciones naturales en las que las simplificaciones impuestas a las fuentes de gravitación están perfectamente justificadas y por consiguiente para las que las soluciones exactas de las ecuaciones de Einstein que resultan de ello dan una descripción satisfactoria de tal o cual porción del universo. Es paradójicamente en dos escalas de distancia extremas en las que estas simplificaciones son más fructíferas. Se puede calcular así el campo gravitatorio generado por un cuerpo aislado en el vacío (esto es, las deformaciones del espacio-tiempo alrededor del cuerpo). El entorno de una estrella —por ejemplo el Sistema Solar— o el de un agujero negro concuerdan gratamente con este cálculo, pues allí la materia está efectivamente concentrada en una pequeña porción del

espacio-tiempo, rodeada prácticamente de vacío. En el extremo opuesto, se puede también calcular el campo gravitacional medio del Universo en su totalidad (su geometría) puesto que a gran escala la materia está distribuida aproximadamente de manera uniforme, comportándose las galaxias como moléculas de un gas cósmico homogéneo. La Relatividad General permite así, hacer Cosmología, es decir estudiar la forma y evolución del Universo en su conjunto. Además hasta el advenimiento de la Astrofísica relativista en los años 1970, es en la Cosmología donde la Relatividad General había encontrado su única aplicación — sin duda, junto con los agujeros negros, la más fascinante de todas. La tercera aplicación fundamental de la Relatividad General tendrá que esperar probablemente al siglo XXI para imponerse: se trata de las ondas gravitatorias. Las ecuaciones de Einstein representan un papel análogo en la gravitación al de las ecuaciones de Maxwell en el electromagnetismo. Ahora bien, recuérdese que el movimiento de las cargas eléctricas genera ondas electromagnéticas. Por consiguiente, la Relatividad General predice del mismo modo que el movimiento de las fuentes de gravitación genera ondas, oleadas de curvatura que se propagan en el tejido elástico del espacio-tiempo a la velocidad de la luz. Volveré a hablar detalladamente de las ondas gravitatorias en el capítulo 18. £1 espacio-tiempo curvo 73

La Relatividad General puesta a prueba Bajo muchos aspectos, el físico teórico es un filósofo vestido de obrero. P. Bergmann, 1949

Las tres observaciones propuestas por Einstein, para probar su teoría de la Relatividad General son la desviación de los rayos luminosos en las proximidades del Sol, las anomalías de la órbita de Mercurio y el desplazamiento hacia el rojo de las líneas espectrales en un campo gravitatorio. La desviación de la luz que pasa cerca del Sol (ilustrada en el figura 16) ha sido medida durante el eclipse de 1919 y concuerda con el valor calculado por Einstein. El segundo test es relativo al movimiento de los planetas. La Mecánica Celeste newtoniana dice que un planeta único que gira alrededor del Sol tiene una órbita elíptica «fija» (cuyo eje mayor no gira). No obstante en presencia de otros planetas su movimiento es perturbado y la órbita elíptica avanza poco a poco en el curso del tiempo. El astrónomo francés Urbain Le Verrier fue quien descubrió en 1859 que el perihelio del planeta Mercurio (es decir el punto de la órbita más próximo al Sol) avanzaba más densa que lo predicho por la teoría de Newton (Figura 17). El cálculo detallado de las perturbaciones causadas por los planetas exteriores (fundamentalmente Júpiter) da efectivamente un avance de 5.514 segundos de arco en un siglo, mientras que Mercurio avanza 5.557 segundos de arco por siglo, o sea 43 «de más» 4. La anomalía es en efecto pequeña (a este ritmo, se precisan tres millones de años para que Mercurio efectué un avance de un giro completo), pero la teoría de Newton es hasta tal punto precisa en su campo de aplicación que debería tener una explicación para ello. La hipótesis más natural consiste en invocar la existencia de un cuerpo perturbador: anillo de materia en órbita alrededor del Sol, o Un planeta desconocido hasta entonces. Este género de consideraciones había aportado ya la fama a Le Verrier, pues el análisis de las Perturbaciones de la órbita de Urano le había permitido prever en subtiende un arco de 360° y cada grado contiene 3.600 segundos de arco.

1846 la existencia del planeta Neptuno —descubierto enseguida. Le Verrier otra vez, esperando renovar su hazaña infirió la existencia de un planeta suplementario, aún más próximo del Sol que Mercurio y bautizado juiciosamente como Vulcano. Le Verrier calculó que Vulcano debía pasar raramente delante del disco solar (única esperanza de detección merced a la mancha oscura proyectada) pero murió en 1877, justamente antes del paso predicho. Nunca conoció su fracaso; ese día, todos los anteojos apuntaron al astro solar, sin embargo ¡Vulcano rehusó obstinadamente presentarse! Desde entonces florecieron teorías newtonianas de la gravitación ligeramente modificadas con la única finalidad de dar cuenta del avance del perihelio de Mercurio. Se advirtió que otros planetas estaban sometidos al mismo fenómeno de avance de su perihelio: Venus, la Tierra, Marte y el asteroide Ícaro, pero las teorías que se ajustaban al avance de uno de ellos no se ajustaban al avance de los otros. Observando finalmente que los planetas «en avance» eran los más próximos al Sol, los astrónomos se encaminaron a buscar la causa perturbadora en el mismo Sol. Después de todo nuestra estrella no es esférica exactamente y su achatamiento es capaz en principio de «hacer girar la cabeza» a los perihelios. En realidad, el Sol es demasiado redondo. Las teorías newtonianas de la gravitación, modificadas o no, permanecieron obstinadamente burladas por los caprichos de un puñado de planetas. En 1916, la Relatividad General de Einstein ofreció finalmente una explicación coherente y unificada al avance del perihelio de los planetas. Estos no son atraídos por una misteriosa fuerza de atracción emanada del Sol, sino que se desplazan libremente en el espacio-tiempo

curvado por la masa de nuestra estrella. Sus trayectorias son geodésicas y las geodésicas de un espacio-tiempo curvado por una masa solar no son precisamente elipses o hipérbolas; su eje avanza poco a poco en el curso del tiempo una cantidad exactamente igual a la observada (Figura 18). El tercer test propuesto por Einstein traduce el «retraso» aparente de la luz en un campo gravitatorio (el cual, de manera local, mantiene siempre la velocidad de 300.000 km/s). La disminución de frecuencia de una radiación electromagnética equivale a un aumento de su longitud de onda, un «enrojecimiento» de su espectro (el color rojo corresponde a la parte de mayor longitud de onda del espectro visible). Pero, aplicado al Sol, este efecto no es del todo concluyente para la Relatividad General debido a su pequeñez y a la imprecisión de las medidas espectrales. Incluso para estrellas mucho más densas que el Sol, que retienen por ello más los rayos luminosos — como las enanas blancas, ver capítulo 5 — , los espectros están tan afectados por campos magnéticos o movimientos desconocidos de materia estelar que es difícil separarlo de los diferentes fenómenos parásitos. £-1 tercer test es de hecho sólo una versión de la elasticidad del tiempo en un campo gravitatorio. La Relatividad Restringida demuestra ya que las aceleraciones retrasan los relojes (paradoja de los gemelos). En virtud del Principio de Equivalencia, se concluye por ° que la gravitación retrasa también los relojes: los del piso bajo van más despacio que los del primer piso. Hasta después de la muerte Einstein no se supo construir relojes con la precisión suficiente la elasticidad del tiempo en un campo de gravitación Tierra

"

En 1960 físicos de la universidad

' de Harvard detectaron con precisión de milésimas el desplazamiento de rayos gamma (radiación electromagnética de muy alta energía) que viajaban de arriba y abajo desde una altura de 23 m. Mientras que para observar la desviación de los rayos luminosos que pasan cerca del Sol hay que esperar que se produzca un eclipse, y para apercibirse que Mercurio avanza demasiado deprisa es preciso acumular durante un siglo observaciones de su movimiento, en este caso se trata de una medida de laboratorio, renovable pues a voluntad. Comenzaba una era floreciente para la gravitación experimental. A partir de 1976, se pudieron colocar relojes de extraordinaria estabilidad, precisos hasta la mil millonésima de la millonésima, a bordo de cohetes volando a gran altura donde el campo de gravedad es sensiblemente menor que en el suelo. El tic-tac electromagnético de los relojes volantes se compara con el de relojes idénticos situados en el laboratorio. La diferencia de ritmos es medible y concuerda plenamente con las predicciones de la Relatividad General. El efecto —más importante— del campo gravitatorio solar sobre la elasticidad del tiempo ha podido medirse con la llegada de las sondas espaciales. Un radar transmite una onda radio en dirección de un satélite situado al otro lado del Sol; la onda radio es reflejada y vuelve a la Tierra donde se mide la duración de su periplo. La geometría curvada por la gravitación solar origina una diferencia respecto al tiempo de propagación de la onda en el espacio-tiempo vacío y plano. La experiencia fue realizada en 1971 con una sonda Mariner y confirmó una vez más el retraso gravitatorio. El lector debe estar preguntándose, llegados a este punto, para que sirve acumular tests tan costosos cuyo objeto es verificar una teoría que parece funcionar tan bien. La razón es que en todas estas experiencias la Relatividad General sólo se ha confrontado en el campo

gravitatorio reinante en el Sistema Solar, que es muy débil en todo él y estacionario (no varía en el curso del tiempo). Ahora Bien, la época del florecimiento de la gravitación experimental ha excitado la imaginación de los teóricos y visto emerger numerosas teorías de la gravitación rivales de la de Einstein. La mayoría de ellas contienen parámetros suplementarios, ajustables a la elección de su inventor. Es el caso en particular de la mas célebre, debida al físico Fernán Paul Jordán y al francés Yves Thiry, que los americanos se han apropiado bajo el nombre de dos de sus compatriotas, Carl Brans y Roben Dicke (el último de los cuales ha jugado un Papel de primer orden en el desarrollo de la gravitación experimental). gracias a la libertad introducida por sus parámetros, las teorías alternativas pueden ajustarse a fin de dar cuenta de todos los efectos

medidos en el Sistema Solar. ¿Cómo decidir entonces cuál es la «buena»? Sólo el análisis de su comportamiento en campos gravitatorios intensos y dinámicos (es decir que varían rápidamente en el curso del tiempo) podría aportar una respuesta. Pero hasta una época muy reciente, la Naturaleza no ofrecía ninguna perspectiva favorable. El descubrimiento en 1974 del pulsar doble (ver capítulo 7) ha cambiado todo. El declive observado en el período orbital de estas 2 estrellas de neutrones viviendo en estrecha unión está de acuerdo con la teoría de Einstein y en desacuerdo prácticamente con todas las otras teorías concurrentes.

Una teoría mágica La magia de esta teoría es tal, que prácticamente nadie que la haya comprendido bien puede escapar a ella. Albert Einstein

La Relatividad General es realmente uno de los más espectaculares progresos intelectuales de todos los tiempos llevados a cabo por un solo individuo. En 1911, trabajando en la Universidad de Praga, Einstein calcula por vez primera la desviación de la luz en un campo gravitatorio. Las verificaciones deben hacerse cuando se produzca el eclipse de 1914, pero al declararse la guerra el proyecto se anula. Felizmente para Einstein: su teoría no está todavía completamente madura y su predicción resultaría errónea. No obstante un fracaso tampoco le hubiera desanimado sin duda. Confesado por él mismo, se considera un «monomaníaco» de la ciencia. El físico inglés Paul Dirac dirá de él más tarde: «Las ideas científicas dominaban todos los pensamientos de Einstein. Te ofrecía el té, y mientras lo removías, buscaba una explicación científica al desplazamiento de las hojas de té que estaban dentro de la taza.» Einstein pone definitivamente a punto las ecuaciones de la Relatividad General en noviembre de 1915 y publica sus resultados en los números de los Berliner Bericbte de 4, 11, 18 y 25 de noviembre. A partir de entonces su teoría inicia un despegue fulminante. Los dos primeros libros dedicados a ella aparecen en 1918, uno en Lori Ares por Arthur Eddington 5, el otro en Berlín por Hermann Weyl. La desviación de los rayos luminosos por el borde del Sol se mide «gracias al celo de Frank Dyson y de Eddington, en el eclipse del 29 de mayo de 1919 en Sobral (Brasil). Las predicciones de Einstein se confirman en el curso de una sesión memorable de la Real Sociedad de Londres, el 6 de noviembre de 1919. La Gran Guerra acaba de terminar. Todo el mundo está cansado, desengañado, a la búsqueda de un nuevo ideal. La teoría de Einstein, con sus extrañas ideas de espacio curvo, hace fortuna aunque prácticamente nadie comprende una sola palabra de ella. Innumerables artículos de vulgarización aparecen en los periódicos de carácter general y filosófico; el público medio se entusiasma y la Relatividad se convierte en el tema de conversación de moda. Einstein es ya el sabio más célebre del mundo, y su opinión se solicita sobre cualquier cosa. Los Estados Unidos le acogen con gran pompa y se convierte en una popular figura. En la comunidad científica el entusiasmo está más bien mitigado. Algunos sabios están petrificados de admiración por la creación solitaria de Einstein y sobrepasan los elogios antaño dirigidos a Newton. «Uno de los más hermosos ejemplos del poder del pensamiento especulativo» afirma Hermann Weyl, que no duda en añadir: «como si un muro que nos separase de la verdad acabara de hundirse.» «La mayor hazaña de la Naturaleza humana» dirá Max Born todavía, en 1955. Es forzoso testificar que, entre los físicos, los más ardientes partidarios de la Relatividad General se encuentran entre los más aptos para comprenderla. En el lado opuesto, aquellos para los que la teoría resulta hermética, se desencadenan. Es difícil pasar en silencio esta demencial reflexión del físico H. Bouasse: «La razón de esta fama que considero efímera estriba en que la teoría de Einstein no entra en el cuadro de las teorías físicas: es una hipótesis metafísica que, además, es incomprensible, doble razón para justificar su éxito (...). En definitiva, nosotros, los físicos de laboratorio, tendremos la última palabra: aceptamos las teorías que nos resultan cómodas; rehusamos las que no podemos comprender y que por eso mismo nos resultan inútiles.»

Otro montaraz adversario de la Relatividad General, Alvar Gulls-trand, oftalmólogo y matemático sueco, premio Nobel de Fisiología en 1911, era miembro del Comité Nobel de Física. Aquí se encuentra probablemente la razón por la que se concede a Einstein en 1921 el premio «especialmente por su descubrimiento de la ley del efecto fotoeléctrico», ¡y no por la teoría de la Relatividad! Como hace notar justamente el físico francés Jean Eisenstaedt: «Es el mismo fanatismo que anima a las personas de orden haciéndoles odiar los cuadros cubistas, dadaístas y no figurativos de principios de siglo. Estas gentes de bien que se precian de no entender el nuevo arte que los snobs aplauden sin entender nada de él.» La comparación entre creación científica y creación artística es en este caso, sensata. EA Relatividad General ha sido comparada muchas veces a una magnífica obra de arte abstracto. Pero, como la belleza estética de una teoría no garantiza su validez, la comunidad de físicos pragmáticos se tomará tiempo todavía para admitirla en su seno. EA Unión astronómica internacional (que reúne cada cuatro años a todos los astrónomos del mundo) creó con entusiasmo una comisión «relativista» a partir de 1922; se reunió una vez... después, ¡consideró inútil retomar sus trabajos! Hoy en 1987, la partida no se puede decir que esté ganada. Sin embargo está bien encaminada desde hace veinte años, desde el día en que la luz parpadeante de astros insólitos y lejanos ha venido a llamar a la puerta de los grandes radiotelescopios. En estos años, la ciencia alemana se había convertido en «maldita» y las bibliotecas inglesas habían suspendido sus suscripciones a los periódicos de este país. Eddington conoció los artículos de Einstein por mediación de un amigo holandés, envío unas copias por correo. ¡Probablemente eran las únicas copias disponibles en Inglaterra!

Segunda Parte

CADÁVERES EXQUISITOS Las estrellas son el fruto dorado de un árbol fuera de alcance. George Ehot

PREÁMBULO La Ciencia sustituye lo visible complicado por lo invisible simple. Jean Perrin

Hace algunos años un astrofísico comenzó su conferencia declarando: «una estrella es una cosa muy simple». Uno de sus oyentes le interrumpió inmediatamente: «Usted mismo también parecería muy simple a distancia de cien años-luz.» Esta observación es muy atinada. Nuestra estrella Sol, sólo nos enseña su «piel», y aún así nos ofrece un fabuloso abanico de fenómenos: gránulos, manchas, erupciones, protuberancias. Es la fantástica lejanía de las otras estrellas lo que las reduce a simples resplandores centelleantes en la noche. Nos llega únicamente su radiación, especie de grito lejano y atenuado de su prodigiosa actividad interna y aunque su análisis permite ya milagros, se necesita en un momento ° en otro la ayuda de la teoría para intentar comprender cómo «mar-c«a» todo esto. Quien dice teoría, dice abstracción, es decir saber olvidar los «epifenómenos» para no quedarse más que con lo esencial-esta es la posición que adoptaré en esta introducción al copioso mundo de las estrellas. bajo esta óptica simplificadora, una estrella se resume en algunas ras: una enorme bola de gas caliente. Sin embargo cada una de Las palabras tienen su peso, exige comentarios.

Decir bola de gas se sobreentiende equilibrio de esta bola. Se sabe por ejemplo que el Sol no se ha «movido» prácticamente desde hace cinco mil millones de años. Ahora bien, esto puede sorprender; en la Tierra, estamos acostumbrados al hecho de que una masa de gas libre tiende a dispersarse, a ocupar todo el espacio circundante. El gas de una estrella al contrario, lejos de desparramarse permanece confinado en un volumen bien determinado. El calificativo «enorme» proporciona la clave de este primer enigma: en una escala de masa tan grande como la de una estrella, la gravitación se convierte en dominadora absoluta de la organización de la materia. Cada átomo de la estrella es atraído hacia el centro y la atracción mutua entre todos los átomos de la estrella asegura la cohesión del gas; por sí misma esculpe su forma, esfera casi perfecta si la rotación no es demasiado intensa. Llegados a este estadio uno puede seguir sorprendido todavía: si todas las partículas de la estrella son atraídas hacia el centro ¿por qué ésta no se contrae? Aquí interviene el calificativo «caliente»: calor, es decir energía, se fabrica en el centro de una estrella. Esta energía se propaga hacia la superficie y logra soportar el peso de la estrella. Una vez en la superficie, la energía se evacua en forma de radiación. Es por lo que cuando se habla de estrellas está omnipresente una palabra: gravitación, que preside su alumbramiento pero que también es el germen de su muerte. EA vida de una estrella no es más que una lucha permanente y desesperada contra su propio peso. Permanente, pues en cada etapa de su evolución la estrella encuentra recursos nuevos para mantenerse. Desesperada, pues el combate esta perdido de antemano: tarde o temprano, la gravitación triunfará J la estrella se hundirá sobre sí misma. Este dominio absoluto de la gravitación sobre el destino de las estrellas se ejerce también a escala más amplia, modelando todas las grandes estructuras del Universo. Las estrellas nacen a partir del hundimiento, o colapso gravitatorio, así como los cúmulos estelares y las galaxias; todas mueren por el colapso gravitatorio. El agujero negro es uno de los cadáveres estelares posibles. E incluso, desde mi punto de vista, el más exquisito de ellos corno último término —llevado casi hasta el absurdo— del colapso gravitatorio. Por esto no quiero hablar de agujeros negros sin haber contado el destino de las estrellas, como nacen, brillan y mueren.

Capítulo 4

CRÓNICA DE LOS AÑOS DE ASCUAS Nacimiento de estrellas Como la lluvia, una estrella es una gota condensada en el seno de una nube de gas. Sin embargo, en comparación con las condiciones que reinan sobre la Tierra, puede decirse casi que una estrella se forma a partir de la nada: el aire que respiramos contiene treinta millones de millones de átomos por centímetro cúbico, mientras que una nube interestelar cuenta apenas con algunas decenas. En contrapartida, se extiende sobre centenares de añosluz y reúne masas que equivalen a varios millares de soles. La nube interestelar se distingue también de la nube atmosférica por su composición química: posee, en término medio

dieciséis átomos de hidrógeno 1 por cada átomo de helio, más algunas trazas de elementos más elaborados como carbono, nitrógeno o hierro. La nube interestelar está no sólo enrarecida sino además fría: a 0 sumo a 100° de Kelvin 2. Tal nube permanecerá estable indefinidamente en la medida en que las velocidades de agitación de sus átomos, responsables de la temperatura, sean suficientes para compensar la gravitación que trataría de reagruparlos. Por consiguiente no pueden condensarse gotas de estrellas, salvo que la nube se vea perturbada. Se conocen varios mecanismos para comprimir una nube y desencadenar en ella el nacimiento de estrellas. En las denominadas galaxias espirales, las estrellas se encuentran agrupadas principalmente en gigantescos brazos que emanan de un abultamiento central llamado bulbo o núcleo galáctico. Los brazos giran alrededor del núcleo lentamente; de esa manera el Sol, en el brazo de Orión, efectúa la vuelta completa al Centro de nuestra Galaxia en doscientos millones de años. Como los brazos transportan materia, propagan un exceso de densidad cuyo desplazamiento en el medio interestelar está acompañado de una comprensión que provoca allí la condensación de estrellas. Otro modelo de formación de estrellas reposa sobre la bella idea según la cual el nacimiento o muerte de una estrella puede desencadenar en sí mismo la condensación de una miríada de nuevas estrellas. En efecto cuando una estrella nace en el centro de una nube, su intensa radiación calienta y comprime la periferia de la nube hasta sembrar allí un verdadero «contagio» de condensaciones. La muerte cataclísmica como supernova 3 de una gran estrella tiene efectos análogos; los restos de la estrella, propulsados a velocidades de varias decenas de miles de kilómetros por segundo, barren todo a su paso y transforman las nubes interestelares en viveros de jóvenes estrellas. Al principio de su comprensión, la nube interestelar se hace opaca. Desde el momento que no absorbe ya la luz de otras estrellas se enfría casi hasta el cero absoluto. Los átomos de la nube son entonces tan lentos, casi fijos, que la atracción gravitatoria mutua domina sobre su movimiento de agitación interna. Ahora bien, la distribución de materia en la nube no es perfectamente homogénea; hay siempre grumos, allí donde haya algo más de átomos que en otro lugar y huecos donde haya un poco menos. Y como la materia engendra la gravitación, hay un exceso de gravitación alrededor de cada uno de los grumos. Estos atraen irresistiblemente a los átomos próximos, lentos por estar fríos, aumentando su poder atractivo a medida, que los átomos van siendo capturados. Los grumos se transforman entonces en glóbulos más condensados que miden vanos miles de millones de kilómetros y agrupan el equivalente de varias masas estelares. Es entonces cuando interviene un mecanismo — clave, la inestabilidad de Jeans — , estableciendo que, en un medio disperso una variación de densidad se hace inestable si se alcanza cierta masa crítica. La perturbación se desacopla del medio para formar entonces un sistema estable, ligado por su propia gravitación; sistema auto-gravitante. Es lo que le sucede al glóbulo: demasiado frío para soportar su propio peso, se contrae y se aísla del resto de la nube. Al contraerse, comprime el gas en su centro a presiones, temperaturas y densidades cada vez más elevadas. El gas calentado se pone a radiar energía; desde el negro, el glóbulo vira al rojo... Un «astro» ha nacido, pero todavía no se le llama estrella pues no radia suficiente energía para mantenerse estable. La proto-estrella continúa pues contrayéndose, si bien a velocidad más reducida. Sólo cuando su temperatura central alcanza 10 millones de grados el hidrógeno comienza a quemarse a través de reacciones termonucleares. Una nueva energía se inyecta en el corazón del astro que se estabiliza: es una estrella. La Guerra del Fuego

¡ Oh, Sol! es el tiempo de la razón ardiente. Guillaume Apollinaire 1

Ver capítulo 6.

En su lucha permanente contra la gravitación, el arma principal de una estrella es el arma nuclear. Su corazón es una bomba que tiende a hacer explotar la estrella y sólo porque la potencia nuclear se ajusta de manera que compensa casi exactamente la gravitación es Por lo que la estrella llega a estabilizarse durante un largo período de calma que puede durar miles de millones de años. Como su nombre indica, las reacciones termonucleares tienen Lugar entre núcleos atómicos a muy altas temperaturas y por ello Conciernen a la estructura íntima de la materia. En el centro de una estrella como el Sol, la temperatura alcanza 15 millones de grados y la presión es igual a trescientos mil millones de veces la presión atmosférica terrestre 4. En tales condiciones los átomos de gas no ya es de un kilogramo por centímetro cuadrado. e generalmente se agrupan en moléculas. Los grados Kelvin miden la temperatura respecto al cero absoluto, que es la temperatura mínima que teóricamente puede ser alcanzada, y que resulta igual a • Unos 100° K equivalen pues a una temperatura del orden de 170° C.

sólo son despojados de su cortejo electrónico, reduciéndose a sus núcleos, sino que son catapultados a velocidades tales que los núcleos pueden sobrepasar la repulsión eléctrica e interpenetrarse, fusionarse. Veamos por qué. Originada en el seno de una gran nube de nitrógeno molecular la estrella está constituida principalmente de hidrógeno. Es el elemento químico más simple, compuesto solamente por un núcleo portador de una carga eléctrica positiva, el protón y de un electrón portador de una carga eléctrica negativa. En una estrella la temperatura es tal que los protones están separados de los electrones y zigzaguean en todos los sentidos como las moléculas de un gas. Puesto que las cargas eléctricas de igual signo se rechazan, cada protón está «protegido» por una especie de armadura eléctrica manteniendo a distancia a sus compañeros. Pero en el corazón de una joven estrella, a 15 millones de grados, los protones van tan rápido que cuando se encuentran, en lugar de rebotar como balas de caucho rompen sus armaduras y permanecen pegados unos a otros. Cuando cuatro protones se fusionan forman un núcleo de helio. El helio es el segundo elemento más abundante en la Naturaleza. . El núcleo de helio pesa menos que la suma de los cuatro protones que lo constituyen. Ciertamente, la diferencia de masa sólo representa una fracción minúscula del total (siete milésimas); pero en virtud de la equivalencia masaenergía descubierta por Einstein, esta pérdida de masa mínima se traduce por una liberación de energía colosal. La conversión de un kilogramo de hidrógeno en helio proporciona la misma energía que la combustión de 200 toneladas de carbón y bastaría para alimentar una bombilla de 100 watios durante un millón de años. Ahora bien, las estrellas semejantes al Sol tienen el corazón grande. No son algunos kilogramos sino seiscientos millones de toneladas de hidrógeno los que se convierten en helio cada segundo. El suministro de energía nuclear es por tanto gigantesco y su precipitación hacia el exterior de la estrella es capaz de interrumpir la contracción gravitatoria. Hay varias cadenas de reacciones posibles para transformar el 89

En nuestro planeta el helio ha desaparecido prácticamente; no es más que uno de los gases raros del aire y sirve para inflar los globos dirigibles. Por otra parte, si el helio es abundante en el Universo, no se debe a que se fabrique en las estrellas; como el hidrógeno y algunos elementos ligeros, se ha formado esencialmente en los primeros minutos del Universo.

hidrógeno en helio. Las dos reacciones más habituales son la cadena protón-protón (pues hace intervenir exclusivamente núcleos de hidrógeno) y el ciclo C-N-O (pues es una cadena cerrada que utiliza elementos más pesados tales como el carbono C, el nitrógeno N y el oxígeno O como catalizadores). En el Sol, la mayor parte de la energía nuclear, proviene de las reacciones protón-protón pero en las estrellas más maduras, de núcleo más caliente es a la inversa: el ciclo C-N-O funciona mejor cuando la temperatura se eleva. Sin embargo, incluso caliente, al hidrógeno le cuesta arder: un protón debe esperar en media... catorce mil millones de años para fusionarse con otros tres protones en la reacción protón-protón 6. Este tiempo «astronómico» explica la larga vida de las estrellas cuando están en fase de combustión nuclear y permite sospechar el prodigioso número de núcleos de hidrógeno contenidos en el corazón. El 16 de julio de 1945 en Alamogordo, en Nuevo México, el hombre hacía explotar por vez primera una bomba atómica. No era realmente de un «trozo de estrella» pues no se trataba todavía más que de una bomba de «fisión», en la que la energía nuclear se libera por ruptura de determinados núcleos más pesados que los protones. Desde entonces el hombre se ha aproximado a las estrellas construyendo la bomba de hidrógeno en la que existe realmente fusión de protones. Pero la comparación con los astros se termina ahí. El detalle de las reacciones nucleares es diferente. En una bomba, no se trata de esperar diez mil millones de años para que los protones decidan encontrarse; los elementos intermedios necesarios para que se produzca la cadena de reacciones proceden del exterior, mientras que en una estrella se fabrican allí mismo a un ritmo extremadamente lento. Pero sobre todo el hombre es todavía incapaz de controlar la fusión del hidrógeno para utilizarla con fines pacíficos. No sabe fabricar un recipiente capaz de resistir las temperaturas y presiones gigantescas requeridas por las reacciones. Las estrellas realizan con toda naturalidad los crisoles buscados por el hombre: su masa es tan grande que la gravitación confina los protones en el volumen adecuado; su reactor nuclear gigante es estable y la producción de energía está regulada... Trece millones de años «solamente» en la reacción C-N-O.

Estrella brillante, ¿tendré tu constancia? John Keats

La energía del Sol, liberada en el centro, se emite en forma de fotones (partículas de luz). Pero un fotón tiene todavía un largo camino que recorrer antes de alcanzar la superficie y escapar libremente hacia el espacio interplanetario, donde irá a enmarañar la cabellera de los cometas y calentar la corteza glacial de los planetas. Contrariamente a lo que se pueda pensar, un fotón emitido en el centro del Sol y que viaje a la velocidad aproximada de 300.000 km/s no tarda dos segundos y tres décimas en franquear los 700.000 km que le separan de la superficie. ¡Tarda en media diez millones de años! La luz que recibimos en un instante sobre la Tierra ha dejado la superficie del Sol ocho minutos antes, pero se ha generado en el corazón estelar en una época en la que primates y mastodontes recorrían libremente un África todavía separada de Eurasia.

La explicación es sencilla: en lugar de escapar directamente en línea recta, el fotón se desvía constantemente de su trayectoria al encontrar innumerables electrones que, con los protones, componen fundamentalmente la materia estelar. Si el corazón solar se apagase bruscamente, su luz continuaría llegándonos durante diez millones de años. Las estrellas llevan pues una vida rutinaria perfectamente regulada. Casi todos los astros que se perciben en el cielo a simple vista o por telescopio son, a estilo del Sol, estrellas en plena madurez, quemando vigorosamente su hidrógeno central. Esta fase de gran estabilidad que dura el 99 % de la vida nuclear de una estrella toma el nombre de Secuencia Principal (ver Apéndice 1). En ella el Sol sigue apaciblemente su curso desde hace cinco mil millones años, convirtiendo su hidrógeno en helio. Ha recorrido la mitad del camino.

Salmo rojo Nada es constante. Todo tiene su fin. Toda historia habla de combustible se acaba en ceniza y extinción. Cuando el hidrógeno se ha agotado transformándose en helio, el fuego central pierde su alimento y el curso apacible de la vida de la estrella en la Secuencia Principal llega a su término. Viene entonces la época de los grandes trastornos. El agotamiento de carburante se traduce inmediatamente en una caída del ritmo de las reacciones termonucleares. El equilibrio entre gravitación y presión de radiación se rompe de nuevo en favor de la primera. La estrella, con el corazón de helio y la envoltura de hidrógeno, se desploma bajo su propio peso. La presión, la densidad y la temperatura aumentan; el hidrógeno que permanece intacto en las capas exteriores comienza a quemarse y la envoltura se dilata mientras el corazón se contrae. En la sabia alquimia de la Naturaleza, son numerosos los elementos susceptibles de transmutarse en otros elementos a través de reacciones termonucleares. Pero, más aún que los protones portadores de una carga eléctrica elemental, los núcleos más complejos tienden a repelerse por ser portadores de cargas eléctricas positivas más numerosas 7. Por consiguiente, los núcleos pesados requieren velocidades de agitación muy elevadas para romper sus armaduras eléctricas y fusionarse entre ellos. En otras palabras, su transmutación requiere una temperatura mayor que 15 millones de grados. De ese modo, cuando el corazón estelar en contracción alcanza los 100 millones de grados, los núcleos de helio se fusionan de tres en tres y producen núcleos de carbono. A su vez éstos capturan otros núcleos de helio para producir núcleos de oxígeno. La rapidez de estas nuevas reacciones de fusión no tiene comparación posible con la paciente destrucción de hidrógeno. Empiezan en un verdadero relámpago 8 al que la estrella intenta, a duras penas, ajustar su estructura. Le lleva un millón de años el conseguirlo. Después el ritmo de producción de energía nuclear se regulariza. Durante algunos centenares de millones de años, la vida nuclear de la estrella pasa Por una tregua. El helio se consume en su centro y el hidrógeno en ^s capas más superficiales. Pero el ajuste ha supuesto un cierto precio. La estrella ha tenido que hincharse desmesuradamente, más que a rana de la fábula, para adaptar su estructura al aumento de su 7 p

• , Cuanto más pesado es un átomo, mayor es el número de protones que contiene núcleo y mayor es su carga. Los núcleos contienen también partículas no cargadas, 05 "Orones, ver capítulo 6. A1 que se llama «flash de helio».

luminosidad. Su volumen ha aumentado mil millones de veces. Al hacer esto, ha cambiado de color, pues al alejarse más y más del fuego central las capas superficiales se han enfriado. La estrella se ha convertido en gigante roja. A pesar de su débil temperatura superficial, las gigantes rojas son extremadamente luminosas pues su extensión espacial es gigantesca. El panteón de las estrellas más brillantes a simple vista está lleno de gigantes rojas: Betelgeuse, Aldebarán, Arcturus, Antares. El mismo Sol se convertirá en un «monstruo» rojo en cinco o seis millones de años. A partir del momento en que su corazón haya quemado el hidrógeno, nuestra estrella empezará a hincharse; el pequeño planeta Mercurio, a sesenta millones de kilómetros solamente, se evaporará, la atmósfera de Venus será arrancada en un soplo, los océanos de la Tierra entrarán en ebullición. Después el Sol se dilatará aún y devastará la Tierra. El diámetro máximo del futuro Sol en su fase de gigante roja englobará los ciento cincuenta millones de kilómetros de la órbita terrestre. El residuo calcinado de nuestro planeta circulará en la atmósfera tórrida pero extraordinariamente tenue del Sol gigante: ¡la densidad de las capas exteriores de una gigante roja es menor que la del mejor vacío obtenido en laboratorio terrestre!

Capítulo 5

CENIZA Y DIAMANTE La historia de una estrella está lejos de haberse terminado en el estadio de gigante roja, pues la gravitación está entonces presente más que nunca. El destino de una estrella está completamente escrito en su masa '. Cuanto más grande es ésta, más deprisa evoluciona la estrella, gastando sus reservas nucleares sin medida. Si la vida nuclear del Sol dura doce millones de años, la de las estrellas diez veces más masivas es mil veces menor. Además, su producción no es la misma. Las más masivas son más prolíficas en elementos pesados, como veremos en el capítulo siguiente. Por ahora, sigamos el destino de las estrellas más modestas, entre las que se encuentra el Sol. Su corazón de carbono y de oxígeno, forjado en la fase de gigante roja, está abocado a permanecer termonuclearmente inerte. No esta suficientemente comprimido por el peso de la envoltura. Pero alrededor la actividad continúa. Las capas de hidrógeno y de helio irán a su vez propagándose hacia la periferia para encontrar allí combustible. En este «roído» parsimonioso el ritmo de producen de energía ya no puede soportar el peso de las capas más que intermitentemente. Al menos el destino de una estrella «célibe», el de las estrellas dobles está sujeto otros factores de los que hablaré más adelante.

. La estrella agonizante, desestabilizadora, comienza a pulsar durante varios miles de años. La que había sido un modelo de regularidad se pone a variar desconsideradamente, hinchándose y deshinchándose como un balón, arrojando en cada pulsación una bocanada de gas. Al fin, se desembaraza de su envoltura y deja su corazón, carbonizado y oxigenado, desnudo. El gas abandonado —la ceniza— forma una nebulosa planetaria. El encogido cadáver estelar, que va a tener un destino de diamante forma una enana blanca. Las nebulosas planetarias La espectacular pérdida de gas en nebulosa planetaria acecha no sólo al Sol sino a cualquier estrella media cuya masa esté comprendida entre una y ocho masas solares 2. Las estrellas más pequeñas son tan parcas que no han evolucionado prácticamente desde su nacimiento,

mientras que las estrellas más masivas queman a toda máquina para acabar rápidamente su existencia en una gigantesca explosión. La primera nebulosa planetaria fue descubierta en 1779 por Antoine Darguier, en la constelación de la Lira. La describió como un cuerpo «tan grande como Júpiter» y semejante a un planeta. Otros astros semejantes fueron rápidamente catalogados. William Herschell, músico y descubridor de Urano, dio a esta nueva categoría de cuerpos celestes el nombre de «nebulosas celestes», primero porque eran nebulosos, y después porque Herschell creía que podían explicar la formación de los planetas. Se equivocaba en este punto, pero el adjetivo «planetario» ha permanecido y forma parte de las anomalías de la nomenclatura astronómica. El mismo nombre de nebulosa, que es cuando menos impreciso, no refleja más que las modestas capacidades de los instrumentos de la época. Se estaba aún en el tiempo en que la astronomía se reducía a una especie de botánica del cielo, que consistía en deletrear el contenido de un mundo en el que el hombre apenas si sabía leer. Uno de estos grandes botánicos rué Charles Messier. Interesado fundamentalmente por los cometas (¿Acaso Luis XV no le había apodado como «el Hurón de los cometas?) ‘En lo sucesivo, el símbolo M® designará la masa del Sol, 2 X 10" g considerada como unidad de masa astronómica.

estableció en 1781 un catálogo de ciento tres astros nebulosos que se parecían más o menos a los cometas pero que no se desplazaban, como éstos, en el cielo. Gracias a él, los cazadores de cometas no confundirían ya su caza con estas manchas desvaídas y fijas, de naturaleza misteriosa. Se sabe hoy que el catálogo de Messier —todavía útil a los astrónomos aficionados— reúne objetos de naturalezas muy diversas, que van desde las nebulosas planetarias (la de la Lira tiene en ese capítulo el núm. 57) a verdaderas galaxias exteriores compuestas cada una por centenares de miles de millones de estrellas, pasando por nubes interestelares y cúmulos de estrellas que pertenecen a nuestra propia Galaxia. Una paleta de colores ¿Por qué razón las nebulosas planetarias, residuos de gas eyectado por una pequeña estrella agonizante, se cuentan entre los astros más espectaculares? Porque su gas intercepta la radiación emitida por la superficie incandescente de la estrella central. Un cuerpo calentado a más de veinte mil grados no radia luz visible, sino ultravioleta. Este tipo de radiación transporta más energía que la luz visible 3 y es capaz de excitar los átomos de la nebulosa; bajo el incesante bombardeo de los fotones los electrones saltan a órbitas de energía superior para después caer emitiendo una radiación de color característico: el gas se hace fluorescente. Cada átomo que le constituye (hidrógeno, carbono, oxígeno) absorbe la radiación ultravioleta y la remite en otras longitudes de onda cuyo color es de alguna manera la firma del elemento. En las regiones internas de la nebulosa, que son las más cercanas a la estrella central, por lo tanto las más expuestas a la radiación ultravioleta, es donde el oxígeno y el nitrógeno son excitados y radian su color verde característico. En las regiones periféricas, la radiación ultravioleta está debilitada por la absorción y no es capaz de excitar más que al hidrógeno, quien remite en su color rojo. Una nebulosa planetaria es un astro que evoluciona rápidamente. Su diámetro máximo no sobrepasa un año-luz. Su gas, en expansión a velocidades de 10 a 30 km/s, termina por diluirse totalmente en el Ver cuadro 1.

espacio interestelar en menos de cien mil años. Es una duración tan breve a escala astronómica que se estima entre 20.000 y 50.000 so lamente el número total de nebulosas planetarias en nuestra Galaxia nacidas a un ritmo de una o dos por año y aún así no se observa más que un millar, pues las otras están ocultas por el polvo del disco galáctico. El jardín de las enanas blancas Objetos extraños, que persisten en mostrar un tipo espectral sin relación con su luminosidad, pero que pueden finalmente enseñarnos más que los astros que radian reglamentariamente. Arthur Eddington, 1922

Si la ceniza de las nebulosas planetarias interesa por más de un motivo a los astrónomos, aunque no fuese más que porque siembra el medio interestelar de carbono, nitrógeno u oxígeno, el destino de la estrella residual es todavía más apasionante tanto por razones observacionales como teóricas. Después de la enorme dilatación característica de la fase de gigante roja y la caída irreversible del ritmo de las reacciones termonucleares, la estrella pierde gas y vuelve a contraerse hasta alcanzar las dimensiones de la Tierra: algunos miles de kilómetros de diámetro. Concentrada en una superficie tan reducida, la temperatura se hace tan ardiente que la estrella se encuentra literalmente calentada al blanco. Estas dos características, talla minúscula y temperatura de superficie elevada le dan el nombre de enana blanca. La irrupción de las enanas blancas en la historia de la astronomía se remonta a 1834 cuando Friedrich Bessel estudió en detalle el movimiento propio de Sirius, la estrella más brillante del cielo. Superpuestas a su lento movimiento de rotación alrededor del Centro de la Galaxia, ligeras perturbaciones periódicas prueban que Sirius pe1"' fenece a un sistema doble, siendo la masa de su acompañante muy próxima a la del Sol. A esta distancia, un acompañante de tipo sola'' hubiera debido verse; ahora bien no era así. La estrella misteriosa, bautizada Sirius B, sólo fue descubierta treinta años más tarde Alvan Clarke. Su brillo, diez mil veces más débil que el de su acompañante, no es más que una lamparilla ahogada en una cegadora iu Ceniza y diamante 97

Con una luminosidad tan modesta todo hacía suponer que la temperatura que reinaba en la superficie de Sirius B debería ser débil. Ahora bien en 1917, Walter Adams midió su espectro y le encontró un color blanco (o sea 8.000° K), en lugar del color rojo esperado (I 300° K). ¿Cómo conciliar débil brillo y fuerte temperatura? Recordando que la luminosidad de un astro depende no sólo de su temperatura sino también de su tamaño. La explicación más plausible del pálido brillo de Sirius es pues un radio extremadamente pequeño para una estrella: tres veces el diámetro de la Tierra solamente. Se encuentra aquí una situación típica de la investigación científica (que la vuelve más excitante): tan pronto como se resuelve un problema, otros, hasta ese momento ignorados surgen. En el caso del compañero de Sirius, se resuelve el problema de la luminosidad reduciendo la talla de una estrella a la de un planeta. Pero un cuerpo tan pequeño como un planeta y tan masivo como el Sol debe tener una densidad media de 800 kglcm3, es decir, ¡cuarenta mil veces más que los metales más densos conocidos sobre la Tierra tales como el oro o el platino! Para obtener en laboratorio tal concentración de materia sería preciso encerrar la torre Eiffel en un cubo de 30 cm de lado... Estos números eran tan sorprendentes para los físicos de los años 1920 que fueron calificados de «absurdos» por el mismo Arthur Eddington. Sin embargo, los hechos los atestiguaban y la teoría debe siempre acomodarse a la evidencia de la observación. Tanto más cuanto que Sirius B no era la primera estrella conocida que se apartaba de la «norma»; el compañero de la estrella 40 Elidan se había señalado ya por una temperatura de

superficie sin relación con su brillo. En el transcurso de los años siguientes, que vieron alargarse rápidamente la lista de las enanas blancas, se hizo urgente encontrar una explicación a este misterio: ¿De qué están hechas las enanas Wancas? ¿ materia degenerada? Hasta el principio del siglo XX, los físicos ni siquiera contemplan la existencia de estados de materia mucho más concentrados que que observan desde nuestro planeta Desde el agua hasta las rocas pasando por la madera o el cuerpo humano, las densidades tienen todas el mismo orden de magnitud: algunos gramos por centímetro cúbico. Fue preciso esperar la eclosión de la teoría de la Mecánica Cuántica para comprender por qué la materia usual tiene esta propiedad. En un átomo, los electrones negativos están ligados a núcleos positivos por fuerzas de atracción eléctricas y están animados de un incesante movimiento. De la misma manera que los choques repetidos de las moléculas de un gas contra las paredes de un recipiente ejercen una presión, los electrones ligados al núcleo son responsables de una presión que impide a la materia contraerse más allá de cierto límite. Este límite está determinado por el Principio de Exclusión, descubierto por Wolfgang Pauli en 1925. Metafóricamente, este principio fundamental de la física de las partículas estableció la existencia de células elementales que no pueden contener más de dos habitantes. En la materia «ordinaria» (aquella cuya densidad es próxima a la del agua) la mayor parte de las células están sin ocupar. Es en este sentido en el que se puede decir que hay muchos «vacíos» en la materia: cada uno de sus átomos está constituido de un núcleo que reúne prácticamente toda la masa, rodeado de electrones que circulan sobre órbitas tan lejanas que, si el núcleo tuviese la talla de una canica el átomo mediría 2 km. Pero al mismo tiempo que explica una propiedad bien conocida de la materia, la Mecánica Cuántica predice la existencia posible de estados de la materia que llamados degenerados, se caracterizan por el hecho de que todas las células elementales están ocupadas por partículas. No todos los tipos de materia se prestan a la degeneración. Las partículas elementales se dividen en dos categorías cuyos comportamientos colectivos difieren completamente a gran densidad o a muy baja temperatura: los fermiones (del nombre del físico italiano Enrico Fermi) y los bosones (del físico hindú S. Bose, que colaboró con Einstein en este tema). La característica esencial que diferencia estas dos amplias familias de partículas elementales es su espín. El espín es una propiedad intrínseca de una partícula elemental asociada a su momento angular 4. La Mecánica Cuántica ha revelado de manera notable que el espín de las partículas está cuantificado, es decir que no puede tomar más que valores discretos, múltiplos enteros o semi-enteros de una unidad fundamental llamada «constante de Planck normalizada» ti. En la vida ordinaria, el hecho de que el espín sea 4

Esencialmente, el producto de su radio por su velocidad propia de Ceniza y diamante 99

discreto pasa totalmente desapercibido por la buena razón de que siendo ti una cantidad extremadamente pequeña, los objetos macroscópicos que nos rodean tienen un espín gigantesco. ¡El espín de una simple peonza de un niño se eleva ya 1030ti! Es pues sólo en la escala atómica donde se manifiesta la discontinuidad del espín, así como la de otras magnitudes físicas cuantificadas, como la energía. La distinción entre fermiones y bosones viene de que los fermiones tienen espíns semienteros (1/2 ti, 3/2 ti, etc.) mientras que los bosones tienen espíns enteros (O ti, 1 ti, 2 ti, etc.). Los constituyentes fundamentales de los átomos protones, neutrones y electrones, son

fermiones de espín 1/2 ti, mientras que el fotón, partícula de luz, es un bosón de espín. 1 h. Pauli ha demostrado esta propiedad capital: dos fermiones idénticos no pueden encontrarse en el mismo estado cuántico, regla que no se aplica a los bosones. Se trata en este caso de una profunda ley que excluye los reagrupamientos demasiado apretados de fermiones. Veamos más en detalle cómo funciona. En un átomo, el estado cuántico de un electrón está definido por su energía (fijada por la órbita en la cual se encuentra) y por la orientación de su espín. Este último puede tomar dos orientaciones «arriba» o «abajo», según que corresponda a un giro en el mismo sentido o sentido opuesto que su órbita. En virtud del Principio de Exclusión de Pauli, se deduce que una órbita de energía dada puede estar ocupada todo lo más por dos electrones, que toman las dos orientaciones de espín posibles. La presencia sobre la misma órbita de todo electrón suplementario está prohibida por la Naturaleza. Consideremos ahora un gas de electrones contenido en una caja. Un estado cuántico de un electrón está en este caso definido por su energía, su momento lineal5 y su espín. Según la Mecánica Cuántica, la energía y el momento son también magnitudes «cuantificadas», que sólo pueden tomar valores discretos. Se deduce de ello que, si se confinan los electrones en un volumen cada vez más reducido, se llega a una situación en la que todos los niveles de energía y de momento están ocupados por electrones que tienen todas las orientaciones de espín posibles. El Principio de Exclusión entra entonces en acción y prohíbe poblar aún más el volumen. Por consiguiente, os electrones se ponen súbitamente a resistir a toda comprensión exterior suplementaria ejerciendo una presión interna «cuántica» colosal, llamada presión de degeneración. La propiedad característica de esta presión es ser independiente de la temperatura, contrariamente a la presión de un gas ordinario que es tanto mayor cuanto más caliente está el gas. Las enanas blancas desveladas ¡Sentía la presión sobre mí, pero be resistido bien! Una estrella del tenis mundial

Fue el inglés Ralph Fowler el primero que supo aplicar las predicciones de la Mecánica Cuántica a la Astrofísica. Ya en 1925 sugirió que la fuerza de comprensión gravitacional de una estrella que no estaba sostenida por una presión de radiación interna es capaz de forzar a los neutrones a ocupar todos los espacios posibles, y que el hundimiento de las enanas blancas debe pararse por la presión de degeneración de los electrones. Poco después, William Anderson probó que para densidades que sobrepasaban una tonelada por centímetro cúbico la velocidad de agitación de los electrones era próxima a la de la luz; se dice en este caso que los electrones son relativistas, para significar que su movimiento no obedece ya a las leyes de la Mecánica Galileana sino a las de la Relatividad Restringida. Ahora bien, siempre según la Mecánica Cuántica, las partículas relativistas ejercen menos presión que las partículas lentas. Esta es la profunda razón por la que las enanas blancas no pueden ser arbitrariamente masivas. Este descubrimiento capital que revolucionaría la astrofísica teórica se debe al astrofísico hindú Subrahmanyan Chandrasekhar. En un célebre artículo de 1931, probó la existencia de una masa máxima de las enanas blancas y la calculó: 1,4 M®. Esta solución despertó una viva controversia, Eddington en concreto la consideró absurda, con el resultado de Chandrasekhar 6, el destino último de las estrellas mucho más masivas que el Sol se volvía misterioso. Pero Chandrasekhar tenía razón. Se estima hoy que las estrellas que poseen 6

Chandrasekhar fue también el autor de los primeros trabajos importantes so' la estructura interna de estas extraordinarias estrellas. A continuación, abordó con el mismo éxito numerosos dominios de la astrofísica teórica y obtuvo el premio en 1983. ^.

cuando nacen hasta 8 M® forman a lo sumo enanas blancas de 1 4 M®, pues en el curso de su vida pierden tanto gas bajo forma de viento estelar que terminan por reducir su masa al límite de Chandrasekhar. En cuanto al destino de las estrellas todavía más masivas sería dilucidado poco después de la teoría de las enanas blancas, con la teoría que predice las estrellas de neutrones y los agujeros negros. Calor y frío Como punto final de la evolución de las estrellas poco masivas, las enanas blancas son numerosas en nuestra Galaxia. Se estima que representan actualmente el 10 % de todas las estrellas (es decir una decena de miles de millones), y esta proporción no puede más que crecer en el curso de su evolución. En esta multitud, apenas algunos millares han sido catalogados. Su luminosidad es tan débil que solamente pueden ser detectadas las enanas blancas muy cercanas a nosotros. Uno de los métodos para descubrir enanas blancas aisladas consiste justamente en censar las estrellas de gran movimiento propio —próximas pues—, y después tomar su espectro para determinar a partir de él el color. Su posición sobre un diagrama color-luminosidad (ver Apéndice 1) indica entonces sin ambigüedad si se trata de enanas blancas o de estrellas de débil masa. Aproximémonos ahora a una enana blanca. Cuanto mayor masa tiene (hasta el límite de 1,4 M®), menor es su radio; esto quiere decir que la gravitación favorece la contracción y el estrecho agrupamiento de la materia degenerada. En el interior de una enana blanca, las estructuras atómicas son destruidas y los electrones, desligados de los núcleos, se mueven libremente en el seno de un «mar degenerado». A pesar del apilamiento extremo de los electrones, queda todavía mucho sitio; los núcleos siguen estando tan distantes con respecto a su dimensión propia que se comportan como moléculas de La estructura mecánica de una enana blanca depende esencialmente del comportamiento del mar de electrones, mientras que su estructura térmica depende del movimiento de los núcleos. Como los electrones degenerados conducen muy bien el calor, el interior una enana blanca se asemeja a un trozo de metal incandescente. La temperatura interna alcanza 100 millones de grados para las enanas blancas recién formadas y cae hasta algunos millones para las enanas blancas de mayor edad. La energía térmica, aunque asociada a una temperatura muy elevada, es mucho menor que la energía de masa en reposo de los electrones. Ello prueba que la temperatura representa un papel despreciable en el equilibrio de una enana blanca. De hecho, aunque más caliente que el Sol, una enana blanca se modela correctamente como si tuviese una temperatura estrictamente nula. A este respecto, las enanas blancas representan uno de los estados de equilibrio fríos de la materia (ver Apéndice 2). El interior de una enana blanca está protegido del frío interestelar por un delgado manto de algunos kilómetros, muy opaco y aislante, constituido por materia no degenerada cuya temperatura no excede los 100 mil grados. Esta temperatura de superficie, diez veces superior a la del Sol, es la responsable de la luminosidad; pero como la superficie misiva se ha encogido como una piel, el brillo total sigue siendo débil, lo que convierte a las enanas blancas en pálidos fantasmas muy difíciles de descubrir a gran distancia. La edad de cristal Puesto que ninguna reacción termonuclear le inyecta nueva energía, una enana blanca se enfría a medida que emite radiación. Pero la enana blanca es de naturaleza ahorrativa. Una

vez formada tarda varios miles de millones de años en enfriarse. Al principio, los núcleos no degenerados se desplazan libremente, como en un gas ordinario, y es su energía cinética la responsable de la temperatura. Lentamente disipada por la radiación, llega totalmente un momento en que esta energía se hace menor que la energía electrostática de los núcleos, que tiene tendencia a aprisionarlos en las mallas de una red rígida. Los movimientos comienzan a fijarse, los núcleos se reordenan en una red cristalina, mientras que los electrones degenerados continúan vagando libremente en el seno del cristal. La enana blanca envejecida cesa prácticamente de emitir y se transforma en un crista gigante más duro que el diamante. Se ha convertido en una enana negra. El ennegrecimiento de una enana es tan lento que es bastan posible que ninguna enana negra se haya formado todavía desde principio del Universo y la aparición de las primeras estrellas sucedió hace quince mil millones de años. Todo es cuestión de paciencia. El Sol, actualmente a mitad de camino sobre la Secuencia Principal, abordará a cinco mil millones de años su «tercera edad» en forma de nebulosa planetaria. Se agitará brevemente durante cien mil años, se consumirá apaciblemente en estado de enana blanca durante otros diez mil millones de años y finalmente se apagará dulcemente en una interminable edad de cristal. Los centelleantes días siguientes Los astros célibes, a la manera del Sol, son minoritarios. Más de la mitad de las estrellas de la Galaxia viven en pareja. Algunos de ellos mantienen incluso relaciones (gravitacionales) muy estrechas con dos, tres, incluso cuatro compañeros. La enana blanca Sirius B tiene un compañero pero su relación es demasiado distante para influenciar su destino; como enana blanca aislada está abocada probablemente a un inexorable enfriamiento. Pero cuando la vida de pareja es más estrecha la evolución a largo término de una enana blanca puede ser transfigurada. La causa esencial de esta conmoción es la transferencia de materia entre los dos compañeros. El compañero de una enana blanca que esté muy próximo o que se encuentre en una fase de gran extensión espacial (gigante roja), puede hacerse progresivamente extraer su envoltura por la enana blanca. Generalmente, el gas arrancado no puede caer directamente a la superficie de la enana blanca debido a las fuerzas centrífugas engendradas por el movimiento orbital. Se acumula en órbita, alrededor de la enana blanca, en una estructura más o menos aplanada que se llama disco de acrecían (Figura 19). El impacto sobre el disco de la corriente gaseosa que proviene del compañero produce un calentamiento local muy importante, una mancha caliente, que puede por sí misma brillar como una estrella y revelar indirectamente la presencia de la enana blanca. En otros casos, en particular si la enana blanca está fuertemente magnetizada, el disco no llega a formarse y el gas es canalizado a lo largo de las líneas del campo magnético en dirección de los casquetes polares de la enana blanca. Allí viene a estrellarse y produce una radiación óptica, ultravioleta o incluso X que ilumina erráticamente la nana blanca. Esta se hace visible bajo forma de variable cataclísmica. Este estado de estabilidad relativa se superpone a menudo episodios de fiebre intensa y súbita, conocidos bajo el nombre de novae, las «estrellas nuevas» o novas. Originalmente, la expresión designaba la clase de astros cuya luminosidad aumentaba bruscamente para decrecer a continuación lentamente. De hecho, las novas reagrupan categorías de fenómenos bastante diversos, pero cuyo punto común es la presencia de un astro compacto en un sistema binario. El mecanismo de las novas es verosímilmente una explosión termonuclear de superficie. Sobre la enana blanca se deposita gas de forma continuada, siendo comprimido y calentado por el campo gravitatorio. En un cierto estadio crítico, el hidrógeno —su principal constituyente— fusiona de manera brutal y la capa superficial de la enana blanca explota.

Durante algunas semanas la enana blanca se pone a brillar con toda intensidad, señalando su presencia hasta en los confines de la Galaxia. Ciertas novas son recurrentes, es decir que las explosiones se producen de una manera repetitiva, con intervalos de algunos meses. Otras por el contrario no explotan más que una vez, pero en es caso la energía liberada es mucho mayor. Una de las más brillan* jamás observadas, Nova Cygni 1975, ha dispensado durante tres oí el brillo de un millón de soles. Esta correlación entre la intensidad de la explosión y el período de recurrencia confirma el modelo de transferencia de masa entre los compañeros, liberándose energía en función de la cantidad de gas acumulado en la superficie de la enana blanca. El mecanismo de transferencia de masa entre una estrella «normal» y un compañero «compacto» juega un papel crucial en la mayor parte de los fenómenos astronómicos muy energéticos. Este punto será abordado con mayor detalle en la cuarta parte, pues se cree que una vida de pareja muy estrecha puede también permitir a ciertos agujeros negros manifestar con brillo su existencia, mientras que aislados permanecerían perfectamente invisibles...

Capítulo 6 SUPERNOVA La escala nuclear La Naturaleza no reduce su inventario químico al hidrógeno, helio, carbono y oxígeno. La materia vive, la madera, la Tierra o la roca tienen también necesidad de silicio, de magnesio, de fósforo, de azufre, de hierro y de cantidad de átomos «pesados», cuyo núcleo contiene más de veinte protones y neutrones. ¿Quién es el forjador de estos elementos, si el Sol y la mayor parte de las estrellas no son capaces de fabricarlos? Siguen siendo estrellas, pero solamente una minúscula franja de ellas: las más masivas. Una estrella que tenga una masa superior a 8 M®, al abandonar la Secuencia Principal, dispone de recursos suficientes para fabricar núcleos pesados. El crisol es el corazón de la estrella aplastado por el peso de la envoltura. El material de partida es la ceniza de hidrógeno y de helio, es decir el carbono y oxígeno. El fulminante es la subida de la temperatura a 600 millones de grados. Entonces, el carbono ya no resiste más; los núcleos se precipitan unos sobre otros, se aglutinan y fabrican neón, magnesio y helio. Se instaura entonces toda una cadena de fabricación pues cada reacción termonuclear libera nueva energía, aumenta la temperatura y permite las transmutaciones. A 1.000 millones de grados, el neón capta un núcleo de helio y se transforma en magnesio. A 1.500 millones de de erados el oxígeno se quema a su vez, engendrando toda una gama de núcleos más pesados: azufre, silicio y fósforo. A 3.000 millones de erados, el silicio se consume y desencadena varios centenares de reacciones nucleares que vienen a alimentar la hoguera. Y así sucesivamente... Núcleos cada vez más pesados, cada vez más ricos se forjan en la loca agitación de varios millares de reacciones. Las últimas etapas de la vida de una estrella masiva se intensifican hasta el paroxismo puesto que cuanto más pesados son los núcleos formados más breve en su combustión. Para una estrella «modelo» de 25 M®, la combustión del carbono dura seiscientos años, la del neón un año, la del oxígeno seis meses, la del silicio un día. La cebolla gigante A este ritmo, la escalada nuclear no puede continuar indefinidamente. La «oleada» de elementos transmutados converge hacia un núcleo atómico bien preciso: el hierro. Ahora bien, este núcleo es mágico; los cincuenta y seis protones y neutrones que lo constituyen están tan soldados entre ellos que ninguna energía de fusión puede arrancarlos. El hierro es la ceniza final del corazón de las estrellas masivas. Compuesta de un corazón termonuclear inerte y capas que entran sucesivamente en combustión, la estrella debe de reajustar constantemente su equilibrio dilatando su envoltura. Se infla desmesuradamente y se transforma en supergigante roja. Las supergigantes rojas son las mayores estrellas del Universo. Si se situase una de ellas en el centro del Sistema Solar, englobaría la órbita de todos los planetas hasta Plutón, a cinco mil millones de Kilómetros. La estructura interna de una supergigante roja es a veces también llamada de piel de cebolla para significar metafóricamente que esta constituida de un amontonamiento de capas concéntricas que van quemando elementos químicos diferentes (Figura 20). Los mas ligeros se queman en la periferia, allí donde la temperatura es menor, los más pesados en las capas internas justo alrededor del corazón inerte de hierro.

La neutronizacón Aunque su temperatura excede 2.000 millones de grados, el corazón de hierro no produce ya energía. Esta «frío» y cesa de asegurar por sí mismo el equilibrio gravitacional de la supergigante. Su materia se aprieta y los electrones degeneran. Viene un período de calma, en el que la enorme presión de los electrones degenerados es capaz de soportar momentáneamente el peso de la envoltura. Recordemos ahora: una masa fría de electrones degenerados es incapaz de soportar más de 1,4 M®. Es el límite de Chandrasekhar por encima del cual no hay compromiso posible entre gravitación y presión cuántica de los electrones. Ahora bien, hierro «recién hecho» es

constantemente fabricado en las capas que rodean el corazón de la supergigante. Más pesado, fluye y se deposita en el corazón. Llega fatalmente el momento en que la masa central, constituida de núcleos de hierro y de electrones degenerados, pasa el límite de Chandrasekhar. Se estima que toda estrella más masiva de 10 M® (corazón y capas comprendidas) es capaz de desarrollar un corazón de más de 1,4 M®. La densidad alcanza entonces 1.000 millones de grados por centímetro cúbico. El corazón de materia degenerada cede súbitamente y se hunde. En una décima de segundo, la temperatura sube a 5.000 millones de grados. Los fotones de luz que surgen transportan tal cantidad de energía que hacen estallar los núcleos de hierro, reduciéndolos a un polvo de núcleos de helio. Es el fenómeno de la fotodesintegraáón. Contrariamente a las reacciones nucleares de fusión que hacen engordar los núcleos y liberan energía, la fotodesintegración rompe los núcleos y absorbe energía. No puede suceder nada más catastrófico para el equilibrio del corazón; cada vez menos apto para hacer frente al aplastamiento, incesantemente apisonado, ve aumentar aún su temperatura hasta que los mismos núcleos de helio se desintegran en sus constituyentes más elementales: protones, neutrones y electrones. Sin embargo a tales temperaturas los electrones poseen velocidades de agitación próximas a la de la luz. Así, aunque degeneradas, son incapaces de resistir más la compresión. En una décima segundo son empujados al interior mismo de los protones. Sus cargas eléctricas se neutralizan. Se crean neutrones, acompañados de a copiosa bocanada de neutrinos. El neutrino (que significa “PEQUEÑO NEUTRO”) es una partícula elemental cuya existencia fue predicha en 1931 por Puali antes de ser detectada experimentalmente en 1956. El neutrino tiene habitual-mente tan pocas interacciones con la materia que puede atravesar amplios espesores de ella sin pararse ni desviarse de su camino. Pero en el corazón de una estrella masiva en implosión el diluvio de neutrinos liberado por la neutronización transporta tanta energía que la envoltura estelar «encaja» el choque y recoge una parte sustancial de estos neutrinos. El resto se escapa de la estrella a la velocidad de la luz y recorre sin ninguna resistencia el medio interestelar. En cuanto al neutrón, es junto con el protón el constituyente de los núcleos atómicos (un nucleón). Hasta 1932 no fue descubierto pues no sabe vivir solo. A partir del momento en que se encuentra exilado de un núcleo su existencia es muy limitada; en una decena de minutos se desintegra espontáneamente, abandonando su neutralidad eléctrica para engendrar un protón, un electrón y un antineutrino Volvamos al punto capital: su espín es semientero y por lo tanto el neutrón es un fermión. Como el electrón, obedece pues al principio de exclusión de Pauli. Su «volumen de ocupación» es sin embargo mucho más reducido: la separación entre dos neutrones puede descender hasta 10~13 cm, es decir que los neutrones pueden tocarse. Consiguientemente la neutronización se acompaña de una verdadera implosión de la materia, un incremento prodigioso de la densidad hacia un estado degenerado. Un cuarto de segundo después del comienzo del hundimiento gravitatorio del corazón, se alcanza una densidad de 1014 g/cm3 (cien millones de toneladas en un dedal). Esa es la densidad de los núcleos atómicos, un poco como si en la materia ordinaria se quitasen todos los electrones para no quedarse más que con los núcleos, a los que se pusiera en contacto. Metafóricamente, se puede decir que ya no hay más «vacío» en el corazón de la estrella, que se ha convertido en una especie de núcleo atómico gigante constituido principalmente por neutrones. Este nuevo estado

degenerado de la materia, mucho más condensado que una enana blanca es una estrella de neutrones. 1

El antineutrino es la antipartícula del neutrino. La desintegración de un neutro aislado no es más que la reacción inversa de la captura electrónica por un protón que se produce en el núcleo de las estrellas colapsadas. Supernova

Estallido Cuando la materia alcanza la densidad nuclear, se hace prácticamente incompresible. Las capas exteriores de las estrellas, no neutronizadas, que se hundían hacia el corazón a la velocidad de 40.000 km/s, se aplastan contra un muro de una dureza increíble. Su colapso 2 es parado en seco y la materia rebota en forma de onda de choque . En el colapso gravitatorio seguido de rebote de la envoltura, la onda de choque se propaga desde el centro hacia el exterior y alcanza en pocos días la superficie de la estrella. Al transportar con ella una energía gigantesca, arrasa todo a su paso y hace estallar literalmente la envoltura de la estrella. Es así como la estrella modelo de 25 M® de la que hablé anteriormente pierde 24 M® y deja un residuo de 1 M® bajo forma de estrella de neutrones. Es el fenómeno de la supernova. El espíritu humano tiene dificultad para representar el cataclismo que significa una explosión de supernova. Hace surgir en algunos días tanta energía como la estrella ha emitido durante centenares de miles de años de su existencia anterior en la Secuencia Principal. Su luminosidad se incrementa varios miles de millones de veces, de manera que durante varios días la estrella «nueva» puede brillar tanto como una galaxia entera. Por comparación, el fenómeno de la nebulosa que acompaña a la condensación de una estrella en enana blanca, parece una apacible muerte, especie de entierro de segunda clase, mientras que la explosión de una supernova es una muerte paroxística, eyectando más ceniza y dejando un cadáver estelar más concentrado. Al enriquecer el medio interestelar con todos los elementos pesados formados en la «piel de cebolla», el gas eyectado por la supernova representa un papel todavía más importante que el de las nebulosas planetarias en la evolución de las galaxias. Las vastas nubes moleculares en el seno de las cuales generaciones

enteras de estrellas se condensan están sembradas por las explosiones de las supernovas cercanas. Hace cinco mil millones de años, cuando el Sol y su cortejo de asteroides, meteoritos, cometas y planetas se desgajaron de la nube primitiva, la Galaxia contaba ya con diez mil millones de años y gran número de estrellas masivas se habían quemado, dispersando sus cenizas en todas las dimensiones del espacio galáctico. La Tierra no ha hecho más que recoger los elementos pesados fabricados en el corazón de estrellas ya largo tiempo desaparecidas. De la teoría a la observación El fenómeno de la supernova no se da, claro está, de manera particular en las estrellas masivas de nuestra única Galaxia. Pero como la luminosidad aparente de un astro disminuye rápidamente con su distancia, ha sido preciso esperar a los grandes telescopios del siglo XX para poder detectar supernovas explotando en las galaxias exteriores. En la actualidad varios centenares de supernovas se han catalogado, aparecidas al ritmo medio de dos por mes, diseminadas entre algunos miles de galaxias vecinas. Se deduce de ello que la frecuencia de explosión de las supernovas en una galaxia dada debe ser aproximadamente de cuatro por siglo. La observación del cielo a simple vista no abarca más que las estrellas de nuestra Galaxia. Está consignado por escrito desde hace dos mil años. En el curso de este período, un centenar de supernovas ha debido explotar. Sin embargo, sólo un pequeño número de ellas ha sido catalogado.

La razón más importante de esta rareza se debe a que el Sol está situado en el disco de la Galaxia, igual que la gran mayoría de estrellas masivas proveedoras de supernovas. Ahora bien, la penetración óptica en dirección del disco galáctico (que en la bóveda nocturna corresponde a la clara luminosidad de la vía Láctea) es extremamente reducida a causa del abundante polvo que absorbe la luz visible. No se puede sondear el disco galáctico más que hasta una distancia de algunos centenares de años-luz, de manera que no se tiene acceso más que a una fracción minúscula del volumen interesante de nuestra Galaxia 3. 3

Se verá a continuación que las radiaciones de radio, infrarroja y de rayos X son absorbidas en mucho menor grado y llegan hasta la Tierra. Supernova 113

Pero los futuros desarrollos de la astronomía observacional permitirán franquear esta censura. Cuando se produce la explosión de una supernovas, no sólo se emiten fotones de luz óptica sino otras radiaciones, que pueden franquear sin dificultad el obstáculo del polvo En particular, se emiten neutrinos en abundancia que son capaces de atravesar años-luz sin interaccionar con la materia. Si se llegase a captarlos sobre la Tierra, se entraría en posesión de una mina de informaciones «limpias» sobre la naturaleza de las fuentes que los han emitido. El problema es justamente detectarlos; puesto que interaccionan tan poco con la materia, ¡no interaccionan casi tampoco con los instrumentos de medida usuales! Sin embargo, los progresos de la tecnología moderna hacen albergar la esperanza de la puesta en marcha de telescopios de neutrinos a fines de este siglo 4. Otro tipo de radiación emitido por las supernovas es si cabe aún más prometedor; no se trata ya de radiación electromagnética sino gravitatoria 5. Puesto que la teoría de la Relatividad General de Einstein predice la propagación de ondas de curvatura cuando un campo gravitatorio varía rápidamente, tales ondas deben producirse como consecuencia del colapso de una estrella. Hacia el año 2000, los telescopios gravitatorios deberían ser capaces de detectar las señales emitidas por las supernovas que explotasen en un radio de cien millos de años-luz. A tal distancia, son accesibles varios millares de galaxias y sería de esperar que los telescopios descubriesen una vez al mes una bocanada de radiación gravitatoria. Las supernovas históricas Mientras soñamos con esta astronomía del mañana, no se trata de esperar resignadamente la agonía de una cercana estrella. Un excelente ejercicio consiste en lanzar una ojeada a la Historia, pues en la memoria escrita de la Humanidad yace un verdadero tesoro astronómico que espera ser explotado. desde que se han escrito estas líneas, se ha descubierto una supernova en la

mayor de las nubes de Magallanes, a solamente 170.000 años-luz de la Tierra. Sus neutrinos fueron detectados en varios laboratorios el 23 de febrero de 1987, varias horas antes que el aumento de su brillo luminoso hubiese sido detectado. Esta fecha marca exactamente el advenimiento de la astronomía de neutrinos. La cuestión de las ondas gravitatorias se desarrolla en el capítulo 18.

-una onda de choque es la propagación en un medio material de una discontinuidad, es decir, de una modificación abrupta de algunas de sus propiedades físicas esenciales, como presión, temperatura o densidad. En la Naturaleza,

todas las situaciones explosivas vienen acompañadas de ondas de choque, que se producen especialmente cuando la velocidad de expansión de la materia se hace mayor que la velocidad local del sonido. El franquear la «barrera del sonido», que se produce cuando la velocidad e un avión sobrepasa 330 m/s, se acompaña de una onda de choque que se propaga Por las capas atmosféricas y genera un «bang» acústico.

Las muertes cataclísmicas de estrellas masivas han dejado trazas en los anales de la astronomía observacional mucho antes de que se hubieran inventado los telescopios. En Extremo Oriente, los astrónomos profesionales —que ejercían sobre todo como astrólogos— estaban encargados por el Poder de vigilar el cielo permanentemente a fin de informar y de interpretar todos los sucesos no habituales Un buen número de ellos han sido notablemente consignados en tratados astronómicos excepcionalmente detallados de varias dinastías chinas, que se remontan a doscientos años a. C. Desdichadamente los tratados más antiguos han desaparecido. Esta pérdida irreparable se debe al orgullo desmesurado de un solo hombre, Ch'in Shih-Huang, que se proclamó primer emperador «verdadero» de la China y al considerar que la Historia del mundo debía empezar con su reinado, ordenó en el año 213 a. C. un inmenso auto de fe en el que desapareció la mayoría de los documentos anteriores. Por suerte, la China no era el único país «tocado» por la astronomía. En Japón y en Corea, las observaciones astronómicas regulares empezaron mil años a. C. A partir de esta fecha es posible encontrar relaciones simultáneas de los mismos sucesos, lo que ha facilitado la autentificación de fenómenos descritos a veces de forma sibilina. El número preciso de supernovas «históricas», algo incierto, no sobrepasa la decena. Sin embargo no todos los anales han sido compilados por historiadores motivados por la astronomía, y todavía menos por astrónomos historiadores especializados en lenguas orientales. Las menciones de las tres primeras nuevas estrellas observadas en China son más bien sucintas. Una habría aparecido el año 185 durante veinte meses en la Constelación del Centauro, la otra el año 396 durante ocho meses en la Constelación del Escorpión y la última en el año 827 también en la Constelación del Escorpión. Con la supernova del año 1006, surgida en la Constelación del Lobo, el solapamiento entre diferentes registros es suficientemente importante para que se haya demostrado su autenticidad. La nueva estrella fue registrada simultáneamente por los europeos (crónicas de los monasterios de la Europa medieval), por los árabes, los chinos y los japoneses. Fue visible a simple vista durante veinticinco meses y, según una descripción recogida en Irak, su máxima luminosidad sobrepasó la de un cuarto de Luna. 115

Identificación de una estrella Me postro. He observado la aparición de una estrella invitada. Era de color amarillo irisado (...) El país conocerá una gran prosperidad. Yang Wei-T'e, astrónomo imperial, 1054

La más célebre supernova histórica (al menos de nuestros días) fue observada en 1054 por los japoneses y los chinos. Estos últimos han dado la descripción más precisa del suceso, gracias a la meticulosidad de Yang Wei-T'e. Este astrónomo imperial de la corte china bajo las dinastías Sung era un buen conocedor de las constelaciones. El día de Ch'ih Ch'iu de la quinta Luna del primer año del período de Shih-Huo (o dicho de otro modo el 4 de julio de 1054), advirtió la aparición en el cielo de un astro extraordinario. Una estrella desconocida que precedía algunos minutos al Sol se elevó por encima del horizonte, mucho más brillante que Venus y más que cualquier otra estrella nunca vista en el firmamento. El astrónomo imperial la bautizó con el nombre de «estrella invitada» y anotó su aparición en los anales.

Hizo un informe para su soberano y tuvo el buen sentido de interpretarlo como un presagio favorable, haciendo después un seguimiento cuidadoso. La estrella invitada se mantuvo aparente a plena luz del día durante 23 días, durando su visibilidad un período total de dos años. Finalmente, la nueva estrella desapareció. El espectáculo había terminado. Yang Wei T'e había asistido a la explosión de una supernova con el fabuloso brillo de 250 millones de soles 6. Después todo esto fue olvidado hasta que John Bevis, astrónomo aficionado inglés, descubre en 1731 una nebulosa en la Constelación del Toro. Fue clasificada, con carácter de objeto difuso con el n.º 1 en el célebre catálogo de Messier. Fue bautizada más tarde con el nombre más bonito de «Nebulosa del Cangrejo» por Lord Ross, que estudió su forma en 1844. En 1919, a consecuencia de una traducción de anales de astronomía china, el sueco Lundmark efectuó por vez primera la relación entre La Nebulosa del Cangrejo y a supernova del año 1054, situadas en la misma región del cielo. Anualmente, en 1928, Edwin Hubble (padre de la Cosmología moderna) midió la velocidad de expansión de la Nebulosa del Cangrejo y «remontándose» en el tiempo le atribuyó una edad aproximada de 900 años, que estaba de acuerdo con la fecha de explosión del año 1054. De esta manera la identificación entre la estrella en explosión y su residuo gaseoso no admitiría desde entonces ninguna duda. Cuenta cerrada. La última data de cuatro siglos. Hay que decir que la explosión inopinada de una supernova en la Galaxia sería un acontecimiento de considerable alcance, que monopolizaría la atención de astrónomos observadores y teóricos durante largos meses de febril actividad 7... Las supernovas del Renacimiento La supernova de 1572 fue observada en Occidente por el astrónomo danés Tycho Brahe, en la Constelación de Casiopea. Fue durante vanos días tan brillante como Venus. Al ser la primera supernova observada científicamente, representó un papel histórico muy importante. Reinaba en esta época todavía la concepción del mundo heredada de los griegos y de los árabes, centrada sobre la Tierra, según la cual las estrellas estaban colgadas de una lejana «esfera de las estrellas fijas». Tycho Brahe demostró que la nueva estrella del año 1572 se encontraba necesariamente más allá de la Luna, por consiguiente pertenecía a la esfera de las estrellas fijas. De ese modo los hechos debilitaron el dogma de la inmutabilidad de dicha esfera ya puesta en duda por la teoría de Copérnico, y preparaban el terreno para la gran revolución astronómica de Kepler. La explosión de 1572 constituye por otra parte el origen de la apelación misma de «supernova» que le sería dada en el siglo XX. Si se hubiera tratado de una nueva estrella ordinaria (una nova), su luminosidad aparente habría permitido situarla a algunas decenas de años-luz. Pero entonces a tan escasa distancia hubiera debido observarse en el telescopio una enana blanca (residuo de la explosión de una nova), no siendo éste el caso. Consiguientemente la nueva estrella de 1572 ha tenido que ser intrínsecamente mucho más brillante que una nova y situarse a mucha mayor distancia. Esta es la razón por la que Fritz Zwicky y Walter Baade propusieron en 1937 el termino de supernova. La supernova del año 1604 en la Constelación de Ofiuco rué observada simultáneamente en Europa, en China y en Corea. Se le conoce comúnmente con el nombre de supernova de Kepler pues fue este célebre astrónomo alemán el que determinó su exacta posición. En 1943, Walter Baade descubrió una nebulosidad alrededor de la posición de la explosión. La lista de las supernovas catalogadas en nuestra Galaxia se en Los restos del festín Enséñame lo que dejas en tu plato y te diré quién eres.

Dicho popular

Si el aumento de brillo de una supernova no dura más que algunos meses, los residuos eyectados por la explosión e insuflados en el medio interestelar pueden ser observados a lo largo de períodos mucho más dilatados. De esta manera los restos gaseosos de las supernovas que han estallado en fechas más remotas pueden todavía observarse en nuestra Galaxia. Pero los restos de supernovas son evanescentes. Muchos de entre ellos se han dispersado tanto y son tan débiles que su luz visible no nos llega. Sin embargo, en el curso de su expansión entran en colisión con el medio interestelar y radian ondas radio y X. En total se conocen una veintena de restos observables en el dominio óptico y más de cien en el dominio radio. El resto de supernova más célebre es la Nebulosa del Cangrejo, engendrada como consecuencia de la explosión de 1054. El resto de supernova bautizada como Vela, en la Nebulosa de GUM, hace remontar su explosión a un época en que los hombres miraban seguramente el cielo pero no consignaban por escrito sus observaciones: nueve mil años a. C. En su máximo la estrella ha debido alcanzar la magnitud de la Luna en su primer cuarto. En cuanto a los magníficos Encajes del Cisne, la explosión debió situarse hace veinte o treinta mil años. El estudio de restos de supernovas está lleno de enseñanzas sobre la naturaleza de la explosión que les ha dado origen. Se clasifica habitualmente a las supernovas en dos tipos, que difieren en la evolución de su brillo. En el tipo I, la luminosidad máxima es mayor

~~~~ ver nota p. 112. 6 ^

Teniendo en cuenta la distancia a la que se encuentra la estrella, la explosión mil años antes.

había tenido

lugar de hecho cinco

que en el tipo II y su decrecimiento es más irregular, siendo este-escalonado. Los astrofísicos teóricos no están de acuerdo sobre la interpretación a dar a estas dos especies de supernovas. Algunos, fundándose sobre los espectros comparados de los dos tipos de supernovas, se inclinan por una simple diferencia de composición química de las estrellas en explosión. Se observa en efecto que el hidrógeno domina en el espectro de las supernovas del tipo II, mientras que está casi ausente en el de las de tipo I, lo que sugiere una composición química diferente de las estrellas de partida. Por otra parte, las estrellas se clasifican generalmente en dos «poblaciones» que se diferencian por su composición química y por su edad. La población II está constituida por viejas estrellas, contemporáneas de la formación de las galaxias, y que por esta razón tienen un bajo contenido en «metales» 8 . Esta población es predominante en las galaxias elípticas, que están prácticamente desprovistas de gas y para las que la natalidad estelar es nula, así como en los halos de las galaxias espirales. Contrariamente, la población I está constituida por estrellas recientes, formadas en los discos de las galaxias espirales y enriquecidas desde su nacimiento con «metales» forjados por las anteriores generaciones de estrellas. Ahora bien, las supernovas de tipo I se observan en todos los tipos de galaxias (espirales y elípticas), mientras que las de tipo II sólo se observan en las espirales. Así pues parece atractivo asimilar las supernovas de tipo II a la población I y las supernovas de tipo I a la población II. La correspondencia es cuando menos desafortunada, tanto más cuanto la situación es probablemente más compleja.

Mientras que los teóricos están de acuerdo en pensar que las supernovas de tipo II se deben a la explosión de estrellas masivas (más de 10 M®) acompañada de la formación de estrellas de neutrones, sus interpretaciones sobre el tipo I son múltiples. Los modelos indican que el colapso gravitatorio de una estrella aislada de una a ocho masas solares no da lugar a gran cosa: una nebulosa planetaria con enana blanca, casi una estrella de neutrones pero con poca energía. En cambio, las estrellas entre ocho y diez masas solares pueden explotar en supernova del tipo I, siendo proporcionada la energía por la combustión del carbono. 119

Amistades peligrosas Otra explicación, actualmente muy en boga, invoca un mecanismo de explosión completamente diferente: las supernovas de tipo I serían enanas blancas compuestas de carbono y de oxígeno, miembros de un sistema binario fuertemente ligado. En este modelo, se arranca helio al compañero y se deposita poco a poco en la superficie de la enana blanca; cuando la capa alcanza una temperatura y una densidad críticas, la fusión del helio se desencadena, dando lugar a un destello y un decrecimiento gradual de la luminosidad análogo al observado en las supernovas de tipo I. Por otra parte, gracias a esta interpretación las «supernovas» merecen realmente su nombre, siendo efectivamente grandes novas 9. Una variante de este modelo binario supone que la enana blanca está muy próxima a su límite de estabilidad de 1,4 M®. En estas condiciones, el depósito continuo de gas en su superficie aumenta su masa y termina por hacerle franquear el umbral fatal. La violación del límite de Chandrasekhar se traduce en una contracción gravitatoria, ligera pero suficiente para hacer reaccionar el carbono del que está constituida principalmente la enana blanca y transformarlo instantáneamente en níquel y en hierro. En la explosión, la enana blanca se disloca. Otra versión de estas «amistades peligrosas» ha hecho recientemente su entrada en la escena astrofísica. En un sistema binario constituido por dos enanas blancas muy próximas entre sí, la radicación gravitatoria disipa la energía orbital del sistema y provoca la aproximación de las enanas blancas en un tiempo más corto que la edad del Universo. Es posible que la colisión de las dos enanas blancas dé lugar a una liberación de energía comparable a la de las supernovas de tipo I. La proliferación de los modelos de supernova da en todo caso una idea de las dificultades encontradas por el astrofísico teórico cuando se encuentran frente a un estado extremo de la materia irrealizable en laboratorio. 8

Para el astrofísico, la palabra metal se emplea coloquialmente para designar cualquier elemento químico diferente del hidrógeno y del helio. Las cuales, recordémoslo, queman hidrógeno en la superficie de una enana blanca en un sistema binario.

Encuentros en la tercera fase El estudio del resto de supernova bautizado Casiopea A complica todavía más la interpretación de los diferentes mecanismos de las supernovas. Esta nebulosa ofrece la ventaja de ser observable tanto en el dominio óptico como en el de rayos X y en el de radio frecuencias. La medida de su velocidad de expansión permite calcular que la supernova ha debido explotar hacia 1660, a una distancia de solamente 9000 años-luz. Ahora bien, ninguna explosión celeste fue detectada en esta fecha. Sin embargo por esta época el cielo era suficientemente escrutado por los astrónomos para que una supernova tan próxima

pudiese pasar desapercibida; ¡pues habría debido sobrepasar durante un mes el brillo del Sirius! Ciertamente, es posible que se haya formado abundante polvo en la envoltura en expansión de la supernova, absorbiendo de este modo la luz central. Pero hay otros hechos perturbadores que debilitan este argumento. Por una parte, la composición química de la nebulosa es diferente de la de los restos de supernova de tipo I o II, y por otra parte, Casiopea A no parece haber dejado una estrella de neutrones residual. En otras palabras, quizás se esté en presencia de una nueva especie de supernova bautizada «tipo III» 10, de frecuencia de aparición mucho menor. Podría tratarse de otro mecanismo de explosión estelar, desencadenado no ya por el colapso del núcleo, sino por la inestabilidad de una estrella ultra-caliente perteneciente a la clase denominada «Wolf-Rayet». Un modelo teórico recientemente desarrollado en el Centro de Estudios Nucleares de Saclay predice efectivamente una luminosidad máxima que sólo es cien millones de veces la luminosidad del Sol, es decir diez veces menor que la de las supernovas «normales». Tal explosión podría desintegrar absolutamente la estrella y no dejar ningún residuo compacto. Otra hipótesis, quizás aún más seductora, está también en marcha: se produciría el colapso de un núcleo degenerado, pero en lugar de formar una estrella de neutrones daría lugar al nacimiento de un agujero negro. Como veremos más adelante, este último no posee corteza sólida; no habría pues podido provocar el rebote de la envoltura estelar, encontrándose por ello la eficacia de la supernova ampliamente reducida...

Capítulo 7 PULSARES La Ciencia está hecha de teorías y de experiencias (o de observaciones en astronomía) que se enfrentan en una saludable emulación y van obteniendo alternativamente victorias. Las estrellas de neutrones ofrecen uno de los más hermosos ejemplos en los que la predicción teórica ha precedido al descubrimiento observacional. El neutrón fue detectado en el laboratorio por Sir James Chad-wick en 1932. Se dice que el mismo día del descubrimiento el gran físico soviético Lev Landau especulaba con sus colaboradores sobre la existencia de estrellas enteramente constituidas por neutrones. Pero Landau no publicó inmediatamente el fruto de sus reflexiones y fueron dos astrofísicos americanos, muy atentos también a los desarrollos de la física de las partículas, quienes dos años más tarde recogieron el fruto maduro. Inspirándose en la analogía con las enanas blancas que, como había sugerido Ralph Fowler, soportan su propio peso gracias a la presión de sus electrones degenerados, Fritz Zwicky y Walter Baade propusieron la idea de que los neutrones podían ejercer una presión degenerada todavía mayor, capaz de soportar un cadáver estelar más masivo que el límite de Chandrasekhar Algunos autores prefieren llamarle tipo Ib. Recibió el premio Nobel tres años más tarde.

Los dos camaradas se habían interesado de cerca en la Nebulosa del Cangrejo, resto de la supernova de 1054, en el centro de la cual debería encontrarse un cadáver requemado y encogido diferente de una enana blanca... En vísperas de la guerra Robert Oppenheimer 2 y G. Volkoff elaboraron una verdadera teoría de las estrellas de neutrones. En particular demostraron que el equilibrio hidrostático

de un gas degenerado de neutrones es efectivamente posible para masas de estrellas del orden de la del Sol. Estas predicciones fueron educadamente ignoradas por la comunidad astronómica. La edición de 1955 de la célebre Astronomía popular de Camille Flammarion, gracias a la cual contraje mi primera fiebre por la astronomía, no consagra más que algunas líneas a la teoría «revolucionaria» de Zwicky: «Se trata en este caso todavía de consideraciones imaginarias demasiado vagas, y que no pueden ser confrontadas a la observación». La confrontación esperaría todavía doce años... Faros en el cielo ¡Trataba de hacer un doctorado sobre una técnica, nueva y hete aquí que estúpidos hombrecillos verdes habían elegido mi antena y mi frecuencia para comunicar con nosotros! Jocelyn Bell

En 1967, Jocelyn Bell, joven estudiante de la universidad de Cambridge en Inglaterra, fue encargada por su director de tesis, Anthony Hewish, de poner a punto nuevas antenas radio capaces de medir el centelleo de radiofuentes lejanas. Analizando a mano los centenares de metros de papel milimetrado proporcionado por los registradores, llegó a intrigarse por la presencia de señales periódicas espaciadas regularmente en 1,337301 13 segundos con una precisión inflexible. J. Bell acababa de descubrir por azar un astro que emitía pulsaciones radioeléctricas: un pulsar. Nuevos casos se añadieron rápidamente a la lista. A partir de 1968, fueron descubiertos pulsares en los restos de las supernovas 2

El futuro «padre» de la bomba atómica...

del Cangrejo y de Vela. Durante varios meses la emoción fue viva y desbordó incluso la comunidad astrofísica. Se hizo notar que señales espaciadas de manera tan precisa no podían sino ser artificiales, emitidas para nosotros por extraterretres, los «hombrecillos verdes» de la jerga de la literatura de ciencia-ficción. En ausencia de denominación oficial los primeros pulsares fueron pues bautizados humorísticamente LGM1, LGM2, etc. (por «Little Green Man»: «pequeño hombre verde») ¡Lo que no era sino una broma de astrónomos fue considerado muy seriamente por la prensa sensacionalista y la noticia del primer contacto con una civilización extraterrestre se propagó, excitando muchas imaginaciones!... Durante este tiempo, los astrofísicos teóricos atacaban prosaicamente la cuestión. A partir de 1968, la interpretación del fenómeno del pulsar en términos de una estrella de neutrones en rotación rápida fue propuesto por Franco Pacini y Thomas Gold. La idea de base se resume en algunas líneas. Una estrella de neutrones está fuertemente magnetizada; sus líneas de campo magnético canalizan las partículas electrizadas (electrones y protones) a lo largo de su eje, permitiendo la emisión, por «efecto sincrotrón», de un haz de ondas radio que gira al mismo tiempo que la estrella. En cada vuelta se recibe en la Tierra una pulsación en el momento en que el haz barre la línea de visión del radiotelescopio (Figura 21). Este efecto de faro está producido por la no alineación del eje de rotación y del eje magnético, fenómeno común en astronomía. La explicación es tan natural y tan armoniosa que se impuso inmediatamente, siendo todavía hoy el modelo aceptado por los especialistas. El premio Nobel de 1974 fue atribuido a Anthony Hewish por la concepción de su radiotelescopio, y el descubrimiento de los pulsares fue mencionado en un anexo en la tesis de Jocelyn Bell... Estrellas exacerbadas ¿Por qué la rotación y el campo magnético representan un papel tan importante en los pulsares?

Aplicando la ley de conservación del momento angular, se deduce que una estrella de neutrones, resultado del hundimiento del corazón de una estrella bastante masiva ya en rotación, adquiere en « curso de la contracción una velocidad de rotación extraordinariamente elevada, de la misma manera que un patinador aumenta su velocidad de rotación replegando los brazos hacia su cuerpo. Por lo que concierne al campo magnético, las líneas de campo están de algún modo atrapadas en la materia estelar y son arrastradas con ella en su movimiento. Cuando la estrella se colapsa, las líneas se estrechan y el campo magnético se amplifica (Figura 22). De hecho, la estrella de neutrones es en muchos aspectos una versión astrofísica exagerada de la enana blanca. Su radio no es más que de una quincena de kilómetros. La reducción de tamaño entre una enana blanca y una estrella de neutrones es pues todavía mayor que la reducción entre el Sol y la enana blanca, y comparable a la existente entre una gigante roja y el Sol (Figura 23). La densidad media no es ya de una tonelada sino de cien millones de toneladas Por cm . Mientras que el Sol gira sobre sí mismo en 25 días 3, una estrella de neutrones gira en menos de un segundo, en rotación rígida 4. Algo análogo ocurre con el campo magnético: si el del Sol es comparado al de la Tierra, es decir un gauss, ¡el de una enana blanca puede llegar a valer hasta cien millones de gauss, mientras que para una estrella de neutrones se concentra sobre una superficie varios miles de millones de veces más pequeña y alcanza un millón de millones de gauss!5 Son precisamente estas propiedades exacerbadas las que permiten la detección de las estrellas de neutrones. Naturalmente que no en el dominio óptico, pues la luminosidad térmica de una estrella de neutrones, aunque emitida por una superficie calentada a diez millones de grados, es extremadamente débil en razón de la exigüidad de la superficie; un cuerpo de treinta kilómetros a diez millones de grados puede ser visto a más de algunos años-luz de distancia, lo que es demasiado poco, considerando las distancias interestelares medias. Se han descubierto a pesar de todo algunos análogos ópticos de los pulsares, entre ellos el del Cangrejo y el de Vela, en los que las pulsaciones radio están perfectamente sincronizadas con pulsaciones ópticas; el pulsar de Vela es por otra parte uno de los astros más débiles detectados hasta ahora en luz visible, siendo su brillo veinte mil millones de veces menor que el de Sirius. A cambio, rotación y campo magnético permiten la emisión de ondas periódicas, detectables no sólo en el dominio radio sino también en longitudes de onda de mayor energía: rayos X y gamma, estando todas las frecuencias moduladas de la misma forma por la rotación de la estrella. Gritos y susurros Se cree que en ciertos pulsares se emite una radiación de alta energía por los casquetes polares de la estrella de neutrones, fuertemente calentados por el impacto de las partículas cargadas que son canalizadas por el campo magnético y chocan contra la ultra dura corteza a velocidades próximas a la de la luz. La estrella de neutrones 4 C

SE cree que las enanas blancas aisladas giran lentamente, pudiera ser incluso gue no girasen. H Los campos magnéticos más elevados obtenidos artificialmente en el laboratorio n de 300.000 gauss. Para generarlos, se utilizan electro-imanes gigantes que pesan m« de diez toneladas. F

En rotación diferencial, con la velocidad dependiendo de la latitud.

La estrella de neutrones no es más que un gigantesco imán giratorio que funciona corno una dínamo. A una vuelta por segundo una estrella de neutrones puede crear una diferencia de

potencial de 10 16 voltios; en este nivel, las fuerzas eléctricas vencen la enorme gravedad que reina en la superficie y llegan a arrancarle partículas cargadas, acelerándolas luego. Estas partículas producen inmediatamente rayos gamma energéticos, pero esta radiación, confinada por el campo magnético, tiene dificultad en escaparse y se transforma en pares electrón-positrón 6. A su vez, estos pares se aniquilan y crean rayos gamma que, un poco más lejos, producen pares electrón-positrón y así sucesivamente hasta que la radiación salga de la zona de confinamiento y se escape. Este proceso de multiplicación de partículas, llamado cascada, permite crear varios miles de ellas a partir de una sola arrancada inicialmente de la superficie. En el ciclón electromagnético proporcionado por un pulsar, la radiación radio no representa más que un débil grito y éste es el captado por nuestros instrumentos. En la actualidad, los teóricos de los pulsares desarrollan modelos de atmósferas (llamadas magnetosferas debido a la importancia primordial del campo magnético) cuya finalidad es explicar todos los detalles de la emisión de los pulsares. Vendría a ser un poco como si se intentase comprender el funcionamiento de una gran máquina oculta en una fábrica, escuchando únicamente algunos ruidos sordos que se escaparan de ella. La extinción de un pulsar De la misma forma que el destino de una estrella aislada esta escrito en su masa, el de un pulsar (es decir la evolución de un período de rotación) está escrito en su campo magnético inicial. Es fácil predecir que la rotación de un pulsar debe hacerse poco a poco más lenta en el transcurso del tiempo, a medida que pierde su energía. Al ser el campo magnético el que permite la liberación de energía, la medida del retraso de los pulsares permite calcular los campos magnéticos de las estrellas de neutrones. Atendiendo a este cómputo, los pulsares jóvenes deben girar por término medio más deprisa que los viejos. El pulsar del Cangrejo, todavía reciente, pues su nacimiento data de 1054, es efectivamente ' El positrón es la antipartícula del electrón.

uno de los más rápidos: gira sobre sí mismo 33 veces por segundo, mientras que el período de los pulsares más antiguos es de vanos segundos. El período de rotación de un pulsar no puede ser por otra parte menor de un milisegundo. Para un período inferior, una estrella de neutrones —por muy rígida que sea— no podría resistir las fuerzas centrífugas y se dislocaría. Los retrasos de los pulsares se escalonan entre 10"I2 y 10 ~19 segundos por segundo, valores enormemente débiles, pero aun así medióles para tiempos de observación de varios años. Cuando la rotación se hace demasiado lenta, el fenómeno de emisión pulsado se apaga. EA vida de un pulsar no pasa de algunos millones de años. Supernovas y pulsares Ya he hecho alusión varias veces a los pulsares del Cangrejo y de Vela, asociados a restos de supernovas célebres. Sin embargo, entre los otros restos muy conocidos tales como Casiopea A, el encaje del Cisne o las supernovas de Tycho Brahe (1572) y de Kepler (1604) no se ha detectado hasta ahora ningún pulsar. EA asociación púlsar-resto de supernova es incluso excepcional; ¡en los 300 pulsares y 150 restos de supernovas conocidos en la actualidad, sólo hay tres emparejados! Numerosas circunstancias concurren en este sorprendente resultado. EA más sencilla es que después de todo puede no haber estrella de neutrones en un vestigio de supernovas, sea porque la explosión de la supernova haya dado otro tipo de residuo estelar (fragmentación completa o agujero negro), o bien porque la estrella de neutrones se haya formado en la explosión, pero se haya desplazado a continuación. En efecto, el colapso gravitatorio del

corazón de la estrella generatriz, es probablemente no exactamente de simetría es-renca. Desde el momento que el eje de rotación de la estrella no está alineado con el eje del campo magnético, la materia es eyectada asimétricamente; ahora bien, a velocidades superiores a 10000 km/s, la eyección por un solo lado de la estrella de una cantidad de materia mayor que el 10 % de la masa total confiere al pulsar una velocidad de vanos cientos de km/s en sentido opuesto. Este fenómeno análogo al retroceso de un fusil es consecuencia de la aplicación de la ^y de conservación de la cantidad de movimiento. Debido a este recto de retroceso, las supernovas pudieran estar desnucleadas de su estrella de neutrones residual, obligando a los astrónomos a ir a otra parte en búsqueda de los pulsares. Es posible también que numerosas pulsares, así como otras estrellas, pertenezcan o hayan pertenecido a sistemas binarios; la explosión en supernova de un masivo compañero de un pulsar puede ser lo suficientemente violenta para romper la pareja y propulsar la estrella de neutrones a velocidades del mismo orden que las observadas efectivamente (entre 10 y 500 km/s). Otra explicación muy plausible de la ausencia casi sistemática de pulsar en el seno de los restos de supernovas es que, aunque se encuentre presente una estrella de neutrones, el fenómeno de emisión pulsada es detectable. Una característica esencial de la emisión de un pulsar es la de ser muy anisótropa: un pulsar es un faro cuya luz se localiza en un estrecho cono inclinado sobre el eje de rotación. Por poco que el eje del cono de emisión esté orientado desfavorablemente, su pincel luminoso no barrerá nunca la Tierra. Intrínsecamente, la estrella de neutrones es ciertamente un pulsar, pero no puede ser vista como tal por los astrónomos terrestres. Los pulsares son en general más viejos que los restos de supernovas. La fase de radioemisión pulsada no ocupa más que un período muy limitado de la vida de una estrella de neutrones, pero a pesar de ello es mayor que el tiempo de vida de un resto de supernova. La vida media de los pulsares es estimada en efecto, según el retraso de su período, en tres millones de años 7, mientras que al cabo de ese tiempo las nebulosas radio de supernova están completamente disueltas. Finalmente, se observan bastante más pulsares que restos de supernovas. En nuestra Galaxia, el número total de pulsares debería elevarse a varios decenas de miles. Las peonzas del cielo Un pulsar «ultra-rápido» que efectúa 660 vueltas por segundo fue descubierto en 1982. Su retraso es tan microscópico que este pulsar es un reloj de una precisión superior a la de los mejores relojes de cesio utilizados en la Tierra para «calibrar» el tiempo • 7

Los más viejos sobrepasan incluso los mil millones de años. Su período es, pues, 1,5 milisegundos. 9 El retraso del pulsar ultra-rápido es de 10" segundos por segundo. Dicho otro modo, en un siglo, ¡su período de rotación sólo varía una mil millonésima >• segundo! Pulsares 131 8

Este pulsar ultra-rápido, bautizado PSR 1937 + 21 10, despierta un problema teórico particularmente interesante. Si su frenado magnético es tan poco eficaz, es porque su campo magnético debe ser diez mil veces menos intenso que el de los pulsares rápidos del Cangrejo o de la Vela; sin embargo, según los puntos de vista tradicionales relativos a la evolución de los pulsares, la debilidad relativa de su campo magnético le asigna una gran edad, incompatible del todo con su fantástica velocidad de rotación. ¿Cómo conciliar estas contradicciones? Un modelo teórico muy interesante supone que el pulsar forma parte de un sistema binario, siendo su rotación acelerada por la caída de gas arrancado a su compañero. Esta idea ha

sido confirmada por el descubrimiento muy reciente de otros dos pulsares ultra-rápidos, uno de 5,5 milisegundos y otro de 6,6 milisegundos que muestran compañeros de forma ostensible. En cambio no ha sido detectado ningún compañero de PSR 1937 + 21; es posible que el pulsar haya sido acompañado en el pasado por una enana blanca en una órbita muy próxima. La radiación gravitatoria emitida por este sistema conduciría a la aproximación orbital, a la colisión de los dos astros y a la desaparición de la enana blanca, rota por gigantescas fuerzas de marea; su caída provocaría la aceleración de la velocidad de rotación de la estrella de neutrones hasta el valor observado ahora. Así, de la misma manera que el destino de una estrella ordinaria se modifica si pertenece a un sistema binario debido a la transferencia de masa de una estrella a otra, la evolución de un pulsar acompañado difiere de la de un pulsar solitario. La observación de algunos pulsares con valores particulares del campo magnético y de la 1*111 •

i.

t-j

J

velocidad de rotación arroja nuevas luces sobre la formación de las estrellas de neutrones. Algunas de ellas que pertenecen a sistemas bínanos, han podido formarse no directamente por colapso gravita-torio del núcleo de una supernova, sino por crecimiento continuo de una enana blanca que, al capturar el gas de un compañero próximo, acabó por violar el límite de Chandrasekhar y condensarse en estrella de neutrones... ¡De algún modo la gota que desborda el vaso!

Los glitches bien pudieran ser gigantescos estelamotos (temblores estrella) debidos a ciertas inestabilidades que afectan a la corteza de una estrella de neutrones y modifican bruscamente su momento angular. Una estrella de neutrones en rotación rápida está ligeramente_ achatada por los polos y ensanchada en el ecuador: debido a las superficiales causadas por este achatamiento, pueden aparecer fisuras que zigzaguean sobre su corteza y desencadenan un reajuste brutal hacia una configuración más esférica. Este reajuste,

que es sólo del orden de un milímetro, pone en juego sin embargo una energía colosal. Un temblor de una estrella de neutrones alcanzaría la magnitud 25 en la escala de Richter 14, mientras que los más violentos seísmos registrados en la Tierra no han pasado la magnitud 8,5. Para ciertos astrofísicos, el hecho de que el pulsar de Vela haya reincidido levanta algunas dudas sobre el modelo del temblor de superficie, pues el intervalo predicho por este modelo entre dos reajustes sucesivos se cuenta en siglos más bien que en años. Por ello, han sido propuestas otras explicaciones de los glitches que hacen intervenir modificaciones más radicales de la estructura de la estrella de neutrones: movimientos turbulentos en las capas profundas, o incluso «transiciones de fase» —análogas al paso del estado líquido al estado sólido— del núcleo estelar, a las cuales debe adaptarse la envoltura.

Los glitches proporcionarían así preciosas informaciones referentes a la más íntima constitución de las estrellas de neutrones. Aquí se tiene un soberbio ejemplo de la ayuda que puede aportar la observación astronómica a la física de las partículas elementales. Pero, ¿qué es lo que conoce realmente sobre la constitución interna de las estrellas de neutrones? El interior de una estrella de neutrones A primera vista, una estrella de neutrones es un núcleo atómico gigante. La diferencia estriba en que la estrella de neutrones está ligada por la gravitación y el núcleo atómico por las fuerzas nucleares. En una estrella de neutrones que no mide en total más que algunos kilómetros de espesor, el dominio de la gravedad es tan fuerte que obliga a la materia a estructurarse de una manera muy precisa. Borra en particular cualquier irregularidad superficial; las montañas más altas de una estrella de neutrones no deben sobrepasar algunos centímetros. Los fenómenos responsables de la emisión electromagnética de los pulsares se producen en esta minúscula capa calentada a diez millones de grados. H

La escala de Richter se utiliza para caracterizar la energía liberada por un seísmo terrestre. Un aumento de una magnitud en la escala de Richter corresponde a una energía veinte veces superior. Pulsares 135

La estructura interna de una estrella de neutrones permanece bastante hipotética, pero una descripción plausible es la que sigue (Figura, 25)- La estrella está revestida de un caparazón de hierro, cristal sólido de núcleos ferrosos bañados en un mar de electrones degenerados, de 1 km de espesor. La densidad varía allí, entre 1 tonelada/cm3 —algo más que una enana blanca— hasta 400.000 toneladas/cm3. Debajo se encuentra el «manto». A medida que uno se adentra en él, los núcleos se enriquecen más y más de neutrones, pero correlativamente son menos y menos capaces de retenerles; se hacen de algún modo delincuentes. Aproximadamente a 5 km de profundidad, los neutrones «se liberan» realmente de los núcleos y se disuelven en un mar degenerado en el que flotan conglomerados de protones. La densidad alcanza cien millones de toneladas/cm3. A mayor profundidad todavía, en una decena de kilómetros de espesor, la materia neutrónica constituye la parte más importante de la estrella. Bajo el efecto de presiones gigantescas, las estructuras cristalinas se desintegran y se disuelven en un líquido compuesto esencialmente de neutrones, protones y electrones. Este líquido probablemente es un superfluído, especie de líquido perfecto de propiedades desconcertantes, sin ninguna viscosidad. La viscosidad es lo que tiende a hacer desaparecer las irregularidades en un fluido. Así, la miel es mucho más viscosa que el agua. En un líquido superfluído, un torbellino puede mantenerse por sí mismo durante meses 15. Para terminar, la composición del corazón sólido, de alrededor de 1 km de radio es en extremo hipotética pues, para densidades superiores a mil millones de toneladas/cm3, se ignora prácticamente todo sobre los estados posibles de la materia. Sin embargo no está prohibido especular acerca de la naturaleza de las partículas elementales que constituyen el corazón, y diversos modelos, de terminologías extrañas, se encuentran actualmente en competición: cristal sólido de neutrones, condensado en piones, materia de quarks, sopa hadrónica... Los místenos de la materia densa Las estrellas de neutrones ofrecen un fantástico campo de aplicación a numerosos campos de la física moderna: nuclear, atómica, plasmas, relatividad, electrodinámica, en condiciones extremas de temperatura, densidad, presión y campo magnético totalmente irrealizables en el laboratorio.

Hemos visto de forma notoria que para describir el interior de una estrella de neutrones es preciso extrapolar ampliamente la física experimental, que no nos ha confiado los secretos de la materia a densidades tan elevadas. La ecuación de estado 16 de la materia densa se conoce muy mal. Sin embargo se la puede circunscribir entre dos estados límites: por un lado el gas libre, en el que las partículas no están sometidas a ninguna fuerza y por otro lado el estado «duro», correspondiente a la máxima rigidez de la materia, en el que la velocidad del sonido es igual a la velocidad de la luz 17. 15

Se ha logrado producir en el laboratorio un líquido superfluído enfriando he i a una temperatura cercana al cero absoluto. 16 Es decir, la ley que dicta la variación de algunas cantidades termodinámicas tales como la presión, en función de otras cantidades tales como la densidad. 17 La velocidad del sonido en un material es, en efecto, tanto mayor cuanto rígido es éste; si en el aire es de 330 m/s, en el agua alcanza 1.500 m/s y, en el agua 5 km/s. Pulsares 137

Todos los estados permitidos en todas las formas de materia son intermedios entre estos dos estados extremos, pero en lo concerniente a la materia de las estrellas de neutrones la elección entre las diversas posibilidades depende de los detalles de una física todavía mal conocida, la de las interacciones nucleares fuertes entre partículas elementales. Afortunadamente, una propiedad esencial de las estrellas de neutrones no depende demasiado sensiblemente de los detalles de la ecuación de estado de la materia densa. Se trata de la masa máxima de las estrellas de neutrones. Recuerde el lector que las enanas blancas son incapaces de soportar una masa superior a 1,4 M®, pues por encima de este valor los electrones degenerados que las constituyen se hacen relativistas y se «desmoronan» bajo el peso. Por la misma razón, las estrellas de neutrones no pueden soportar una acumulación arbitrariamente grande de materia. El límite de estabilidad corresponde al momento en que los neutrones degenerados, bajo el dominio de la enorme compresión gravitatoria, se convierten a su vez en relativistas. Para conocer la masa máxima de las estrellas de neutrones con tanta precisión como la de las enanas blancas, sería preciso conocer la ecuación de estado de los neutrones degenerados con la misma precisión que la de los electrones degenerados, lo cual no es el caso. Sin embargo es posible obtener una buena aproximación de la masa límite razonando de la siguiente manera. La densidad de la estrella de neutrones crece desde el borde hasta el centro; en un punto intermedio, alcanza la densidad nuclear y es entonces cuando la ecuación de estado deja de ser fiable; se aplica entonces la ecuación de estado de la materia para densidades subnucleares —conocida experimentalmente— para describir la envoltura de la estrella de neutrones, y para describir su núcleo se utiliza la ecuación más rígida posible; finalmente, empalmando las dos soluciones, se deduce la masa total envoltura + núcleo. El límite así obtenido es de 3,2 M®. Aun así este límite está sobreestimado y los modelos más sofisticados indican una masa máxima comprendida entre 2 y 3 M®. Este resultado es fundamental pues inmediatamente provoca la cuestión: ¿a qué da lugar el colapso gravitatorio de estrellas muy masivas?

Capítulo 8 LA GRAVITACIÓN TRIUNFANTE ¿A qué se parecería la física sin la gravitación? A. Einstein, 1950

Enanas blancas y negras, estrellas de neutrones y pulsares, he ahí cadáveres estelares que apenas molestan. Pero ¿y los agujeros negros? Mitchell y Laplace habían imaginado

ciertamente que podían existir grandes astros invisibles, pero no tenían ninguna idea acerca del mecanismo de su formación e incluso no habían considerado agujeros negros de masa estelar. Les faltaban conocimientos demasiado avanzados para la Ciencia de su tiempo: Mecánica Cuántica y Relatividad General. La reaparición de la teoría de los agujeros negros como posible resultado del colapso gravitatorio data de 1939, cuando los físicos americanos Robert Oppenheimer (que había elaborado ya la teoría de las estrellas de neutrones) y Hartland Snyder, estudiaron el colapso de una «estrella modelo» simplificada, esférica y sin presión interna, utilizando las ecuaciones de la Relatividad General. Descubrieron que en determinadas circunstancias la presión gravitatoria es tan grande que no permite la formación de una estrella de neutrones estable; al contrario, nada puede ya parar la contracción de la estrella por sí misma, y esto hasta alcanzar un «punto» de volumen nulo y de densidad infinita; pero en un cierto estadio anterior la estrella en contracción corta toda comunicación con el universo exterior. La gravitación triunfante

La predicción teórica de la existencia de los agujeros negros estelares reposa así en tres puntos claves: _ No existe ninguna fuerza de la Naturaleza capaz de soportar más de tres masas solares de materia «fría», es decir termonuclear-mente inerte. _ Numerosas estrellas calientes observadas tienen una masa que supera con creces las 3 M®. _ La escala de tiempos requerida para que una estrella masiva consuma su carburante nuclear y experimente el colapso gravitatorio se mide en millones de años, por lo que tales sucesos se han producido ya en la Galaxia, que tiene más de diez mil millones de años. El punto débil de esta argumentación estriba en suponer que una estrella masiva es capaz de desarrollar un núcleo degenerado —el único sometido a colapso— más masivo que el límite de estabilidad de una estrella de neutrones. Las mayores estrellas conocidas alcanzan cien masas solares '. Pero en el curso de su evolución todas las estrellas pierden masa por lo que se llama un «viento estelar». En el caso del Sol y de las estrellas modestas, esta pérdida es mínima mientras permanecen en la Secuencia Principal, y la eyección de masa sobreviene esencialmente al final de la evolución nuclear, en la fase de nebulosa planetaria. Sin embargo hay buenas razones para creer que las estrellas muy masivas eyectan desde el comienzo de su existencia grandes cantidades de materia. Nuestros conocimientos actuales sobre la cuestión, tanto teóricos como observacionales, son tan escasos que no es posible sacar una conclusión firme, ni siquiera descartar la hipótesis extrema según la cual, sea cual sea la masa inicial de una estrella, su pérdida de masa por viento estelar bastaría siempre para reducir la masa de su núcleo degenerado a menos de 3 M®. Desde esta óptica, la formación de agujeros negros en el corazón de las supernovas estaría simple y llanamente prohibida. Sin embargo, como veremos en la cuarta parte de este libro, se cree haber detectado realmente agujeros negros de algunas masas solares en ciertas fuentes de rayos X. En el estado actual de nuestros conocimientos, es pues más razonable pensar que todo precursor de supernova entre diez y cien masas solares puede terminar, bien sea en estrella de neutrones, o bien en agujero negro. Modelos detallados de la explosión de una supernova, calculados con potentes ordenadores El récord actual lo ostenta la estrella HD698, cuya masa es de 113 M®.

muestran por otra parte que un agujero negro se forma en dos casos posibles: — Cuando la masa del núcleo degenerado sobrepasa el límite de estabilidad de las estrellas de neutrones, el colapso conduce directamente a un agujero negro, pero se ignora si su formación se acompaña de eyección de materia (la envoltura estelar no puede ya rebotar sobre el núcleo duro como en las estrellas de neutrones). — Cuando la masa del núcleo degenerado es inferior a la masa crítica pero hay una eyección pequeña de masa, se constituye en primer lugar una estrella de neutrones; pero al tener que soportar el peso de la envoltura se hace inestable y se colapsa transformándose en agujero negro. A estas dos posibilidades de formación de un agujero negro de algunas masas solares en una supernova hay que añadir una tercera, realizable en varias etapas y en un período mucho más largo. Se trata de la formación previa de una estrella de neutrones en una supernova seguida de una larga fase de captura y depósito de materia en la superficie de la estrella de neutrones —la situación más favorable es, claro está, la pertenencia a un sistema binario— hasta que la masa total viole el límite crítico de estabilidad. Tal mecanismo recuerda la transición súbita de una enana blanca a estrella de neutrones, y para que sea operativo, el depósito gaseoso no debería ser expulsado regularmente por reacciones nucleares de superficie, como sucede en las novas. En conclusión, el agujero negro aparece en el plano de la evoluciona estelar como el último triunfo de la gravitación en su papel de regulador de la vida de una estrella (ver Apéndice 2). Pero es mucho más que eso. La gravitación gobierna todas las grandes agrupaciones de materia en el Universo. Veremos más adelante que un cúmulo denso de estrellas evoluciona también contrayendo su corazón y podría desarrollar agujeros negros no ya de algunas masas solares, ¡sino de mil, un millón, incluso mil millones de masas solares! Veremos también que un agujero negro crece cuando traga materia pudiendo transformarse de enano en gigante, en uno de estos astros invisibles que Michell y Laplace habían imaginado. Y además, hay también agujeros negros minúsculos, demasiado ligeros para desplomarse bajo su propio peso, pero «forzados» por una gigantesca presión exterior que sólo el Universo primordial ha sido capaz de producir. El agujero negro es un curioso cadáver... Pues, de hecho, nada hay menos muerto que él. Recién formado, está llamado a una grandiosa transfiguración, llena de «ruido y de furor». La segunda mitad de este libro cuenta su historia.

Tercera Parte

LA LUZ ASESINADA Si se tiene intención de abandonar la Relatividad, es el momento de hacerlo. Si no, se está en camino de un nuevo mundo de la física, tanto clásica como cuántica. ¡Vayamos pues! B. Harrison, K. Thorne, M. Wakano y J. Wheeler, 1965

Capítulo 9 EL HORIZONTE QUIMÉRICO El inmortal aburrimiento de la calma sideral. La añoranza de un Sol cuya pérdida lloramos... Jean de La Ville de Mirmont, L'Horizon Cbimérique

La solución de Schwarzschild En diciembre de 1915, un mes después de la aparición de los artículos de Einstein que proporcionaban las ecuaciones de la Relatividad General, el astrofísico alemán Karl Schwarzschild descubre la solución que describe el campo gravitatorio de una masa esférica rodeada de vacío. Desde el frente ruso en el que combate 1, Schwarzschild comunica su manuscrito a Einstein y le confía el cuidado de su publicación. Einstein está muy impresionado. Él responde: «Yo no esperaba que pudiese ser formulada una solución exacta del problema. Su tratamiento analítico me parece espléndido.» El interés de la geometría espacio-temporal descubierta por Schwarzschild es doble. Por una parte, describe notoriamente bien el campo gravitatorio que reina en el Sistema Solar. El Sol es prácticamente esférico, y el conjunto de la materia que le acompaña tiene respecto a él una masa tan débil que puede asimilarse al vacío. Muy patriota, Schwarzschild se enroló como voluntario en el ejército prusiano, a época en que se descubrió su solución, contrajo una enfermedad incurable, el pénfigo; repatriado urgentemente, murió en mayo de 1916.

Los movimientos de los rayos luminosos, de los planetas, de los cometas y de todos los cuerpos en caída libre hacia el Sol siguen pues geodésicas 2 del espacio-tiempo curvo de Schwarzschild. Estos movimientos pueden ser calculados con precisión y concuerdan con los valores observados de la desviación de los rayos luminosos que bordean el Sol y del avance del perihelio de los planetas, que la fuerza de atracción de Newton era incapaz de explicar. Por otra parte la solución de Schwarzschild presenta un interés universal pues es independiente de la naturaleza del astro que la engendra. No depende más que de una sola magnitud: la masa. El campo gravitatorio exterior del Sol y el de una estrella son idénticos con tal de que su masa sea la misma. En el límite, una masa estrictamente puntual engendraría también el espacio-tiempo de Schwarzschild. Ahí empiezan las dificultades. El comportamiento de la geometría empieza a ser desconcertante a partir del momento en que se aproxima «muy de cerca» a la fuente puntual de gravitación. Más precisamente, a la distancia crítica dada por r = 2 GM/c2, en el que M es la masa del astro central, G la constante de atracción universal de Newton y c la velocidad de la luz 3. Como se ve, esta distancia es proporcional a la masa gravitatoria. Es igual a 3 km para la masa del Sol, y alcanza tres millones de kilómetros para un millón de masas solares y se reduce a un centímetro para la masa de la Tierra. Este radio de Schwarzschild no es nada más que el tamaño crítico de un astro por debajo de la cual la velocidad de liberación de su superficie calculada «a la Newton» alcanzaría la velocidad de

la luz. Sin saberlo, Schwarzschild acababa de reabrir la puerta a las especulaciones olvidadas de Michell y Laplace referentes a los astros invisibles. El círculo mágico A partir de la solución de Schwarzschild, el camino que lleva a la teoría de los agujeros negros está todavía sembrado de dos grandes trampas: una de orden matemático, otra de orden astronómico. 2

Equivalente de las rectas en una geometría curva, ver p. 63. Adoptaré en lo que sigue la fórmula simplificada r = 2M, considerando las constantes fundamentales G y c como unidades. 3

En la versión proporcionada por Schwarzschild, el espacio y el tiempo pierden su identidad en el interior del radio crítico r = 2 M. Las «reglas» que permiten medir distancias e intervalos temporales en la región exterior tienen allí un comportamiento aberrante; una se hace infinita, el otro nulo. Arthur Eddington describe esta «singularidad» de la geometría en estos términos: «hay un círculo mágico a cuyo interior ninguna medida nos puede conducir.» La cuestión del círculo mágico fue objeto de discusiones apasionadas en el Coloquio de París de 1922. Alrededor de Einstein se reunió el más bello «ramillete de relativistas» que imaginarse pueda, entre ellos, Jean Becquerel, Henri Brillouin, Elie Cartan, Jacques Hadamard y Paul Langevin. Sin embargo, este ejército de físicos teóricos no fue capaz de resolver el problema matemático planteado por el radio crítico. A lo sumo, presintieron la eventualidad del colapso gravitatorio. El círculo mágico será durante largo tiempo considerado como una incoherencia de la Relatividad General y frenará el desarrollo de la teoría de los agujeros negros. Hasta los años 1950 los teóricos no se pusieron de acuerdo para reabsorber la singularidad del radio de Schwarzschild. El comportamiento «patológico» de la geometría sólo es un artificio matemático. David Finkesltein ha demostrado que sólo se debe a una mala elección del sistema de coordenadas 4. Bastantes años antes, Eddington había descubierto la llave del enigma construyendo por primera vez un sistema de coordenadas en el cual la geometría de Schwarzschild pierde su magia en el radio crítico. Pero Eddington no había sabido o querido sacar las consecuencias de ello, pues estaba preocupado por un problema astronómico: el de los astros gravitatoriamente condensados. La idea de que una estrella como el Sol pueda contraerse en una esfera de 3 km de radio es tan inadmisible en el principio del siglo XX como en el tiempo de Laplace, puesto que implica una densidad de materia que desafía a la imaginación. En 1931, el japonés Recuerdo que en Relatividad General todos los sistemas de coordenadas son equivalentes para describir los fenómenos físicos, pero en algunos de ellos los cálculos se efectúan más simplemente que en otros.

Yusuke Hagihara publica un impresionante trabajo matemático en el que calcula todas las geodésicas del espacio-tiempo de Schwarzschild, incluidas las que penetran en el «círculo mágico». Pero concluyó: «de hecho, es del todo improbable que en una estrella real la distancia r = 2 M medida a partir del centro sea más grande que su radio. Para que el radio de una estrella de masa comparable a la de nuestro Sol sea igual a la distancia r = 2 M, sería preciso que su densidad fuese alrededor de 1017 veces la del agua, mientras que la estrella más densa, el compañero de Sirius, una enana blanca, tiene una densidad de cerca de 6 X 104 veces la del agua 5. No hay tal diversidad en la masa de las estrellas para permitir un

valor tan pavoroso de la densidad crítica. Por consiguiente, una órbita que penetra en el interior de r = 2 M es físicamente muy improbable.» Esta cita resume perfectamente la actitud pragmática que adoptan la mayor parte de los astrofísicos. Sólo se interesan por las lejanas regiones de la geometría de Schwarzschild, aplicables al Sistema Solar, e ignoran su extraño comportamiento en el radio crítico. Algunos osan incluso ir más lejos. A partir de 1920, William Anderson se interroga sobre el destino que espera a una estrella que se reduce hasta un volumen tan pequeño como el de su círculo mágico: «el astro solar iría contrayéndose y llegaría un momento en el que sería sepultado en las tinieblas, no porque no tuviese más luz que emitir, sino porque su campo gravitatorio habría llegado a ser impermeable a la luz.» Un año más tarde, Sir Oliver Lodge vuelve a tomar casi palabra por palabra el viejo razonamiento de Michell y Laplace: «Si la luz tiene peso, un cuerpo suficientemente masivo y concentrado sería capaz de retener la luz e impedir que se escape. El Sol debería concentrarse en una esfera de 3 km, lo que está más allá de lo razonable, y la Tierra en un globo de 1 cm. Pero si para una masa aislada esta condición es apenas imaginable, un grupo de estrellas de masa igual a 1016 M® podría tener un radio de 1.000 años-luz con una densidad media de 10~15 g/cm3, sin que pueda escaparse de ella mucha luz... Esta concentración de materia no parece completamente imposible.» Como se ve, si los astrofísicos tropiezan todavía en las fabulosas densidades implicadas por astros de algunas masas solares condensadas por debajo de su radio de Schwarzschild, algunos están dispuestos Las observaciones ulteriores han revelado que las enanas blancas tienen una densidad diez veces superior a la indicada por Hagihara, ver capítulo 5.

a admitir su existencia en escalas de masas mucho más grandes, simplemente porque la densidad correspondiente se hace «razonable», es decir comparable a las ya conocidas en la Naturaleza. Paralelamente, la entonces reciente teoría de la Mecánica Cuántica acredita la tesis del colapso gravitatorio prediciendo la existencia de estados «degenerados» de la materia, de una densidad que nadie hubiera osado imaginar hasta entonces. El terreno parece preparado para la rehabilitación de los astros invisibles. Pero su hora no ha sonado todavía. Arthur Eddington, el gran astrofísico inglés, es paradójicamente el más celoso defensor de la Relatividad General y el más terco oponente a la idea de un astro condensado por debajo de su radio de Schwarzschild: «¡Yo pienso que debe existir una ley de la naturaleza que impida a una estrella comportarse de manera tan absurda!» Para mantener su idea, Eddington debe modificar artificialmente la ley de degeneración descubierta por Fermi, a fin de que cualquier masa fría, tan grande como sea, pueda permanecer en equilibrio. Desarrolla sus ideas en la reunión de 1935 de la Unión astronómica internacional — sociedad de la que llegará a ser presidente cuatro años más tarde—. Un joven astrofísico de origen hindú de apellido Chandrasekhar desliza una nota al presidente de la sesión a fin de pedirle permiso para exponer un punto de vista contrario. ¡Permiso rehusado; la notoriedad de Eddington es tal que su opinión no puede ser puesta en duda! A pesar de estas peripecias, la historia de las ciencias está en marcha. Chandrasekhar se hace célebre al construir los primeros modelos de astros condensados: las enanas blancas. EA teoría del colapso gravitatorio nace verdaderamente en 1939, gracias al trabajo de Oppenheimer y Snyder (ver capítulo 8). Utilizando las ecuaciones de la Relatividad General, logran calcular el colapso de una masa esférica por debajo de su radio de

Schwarzschild. Demuestran rigurosamente que la materia, y con ella el espacio-tiempo se colapsa para formar una región de la que ni siquiera la luz puede escaparse. El término de agujero negro se utiliza por primera vez el 29 de diciembre de 1967, con motivo de una conferencia dada en New York por John Archibald Wheeler. Entra un tiempo en competición con la denominación francesa de «astro ocluido» y después se impone definitivamente. EA fulgurante carrera de los agujeros negros Puede comenzar... Más negro de lo que usted se piensa El astrofísico hindú Jay Narlikar ha narrado la siguiente anécdota. En el siglo XVIII había en Calcuta una fortaleza llamada Fort William, que abrigaba una celda oscura conocida como el «agujero negro de Calcuta». Esta celda de 5 X 4 m estaba concebida para encerrar a tres prisioneros. En 1757, una revuelta terrible ensangrentó Bengala. En represalia, el cruel gobernador de la provincia hizo encerrar en el agujero negro de Calcuta 146 prisioneros del ejército enemigo. Estuvieron allí durante diez horas en el período más caliente del verano. Veintidós de ellos sobrevivieron. Este episodio es tan horrible que algunos historiadores dudan de su autenticidad. Simboliza en todo caso el mito del agujero negro glotón que devora todo lo que pasa a su alcance. Esta connotación macabra, extendida en el gran público por cierta prensa, no es sin embargo más que uno de los múltiples aspectos del agujero negro. El agujero negro es un «objeto» a la vez simple y desconcertante por las distorsiones que imprime al espacio-tiempo. Comencemos por despojar de su cáscara la imagen tradicional del agujero negro, la de la prisión cósmica, Para esto es preciso remontarse a la fuente y recordar la definición elemental del agujero negro: una región del espacio-tiempo en el interior de la cual el campo gravitatorio es tan intenso que impide a toda materia y toda radiación escaparse. Quien dice campo gravitatorio fuerte dice concentración de materia importante. Para «fabricar» un agujero negro, es preciso pues que cierta masa esté encerrada en un cierto volumen crítico, cuyo tamaño está dado en el caso esférico por el radio de Schwarzschild. Como indica el cuadro 3, el agujero negro es un astro verdaderamente excepcional en la medida en que esta condición está lejos de ser satisfecha por los cuerpos habituales desde los átomos a las estrellas. Hagamos por el momento abstracción de los posibles mecanismos de formación de los agujeros negros. Pueden existir teóricamente agujeros negros de todas las tallas y de todas las masas. Agujeros negros microscópicos que tienen el tamaño de una partícula elemental y la masa de una montaña, agujeros negros de 10 M y de algunos kilómetros de radio, agujeros negros gigantes de varios miles de millones de M® y tan grandes como el Sistema Solar (ver Apéndice 2). Por consiguiente, en contra de una opinión extendida corrientemente, la densidad media de un agujero negro no es necesariamente elevada. Es inversamente proporcional al cuadrado de su masa. Si es cierto que un agujero negro de 10 M(D formado por el colapso gravitatorio de una estrella masiva más allá del estadio de estrella de neutrones, requiere una densidad «supernuclear» de 1016 g/cm3, un agujero negro de mil millones de masas solares tiene una densidad media cien veces más débil que la del agua. El agujero negro no es forzosamente un astro denso: es un astro bastante compacto para, aprisionar la luz 6.

El aprisionamiento de la luz He aquí el combate del día y de la noche. Ultimas palabras de Víctor Hugo

Supongamos que una estrella, perfectamente esférica y rodeada de vacío, se hunde sin ninguna distorsión por debajo de su radio de Schwarzschild. Su superficie es caliente y emite radiación. ¿Cómo se efectúa el aprisionamiento progresivo de la luz y la transición hacia el estado de agujero negro? A esto Michell y Laplace respondían en términos de velocidad de escape; la Relatividad

General responde de manera sutil. G. Birk-hoff demostró en 1923 que la solución de Schwarzschild describe no sólo la geometría del espacio-tiempo exterior a una masa estática, sino más generalmente la que rema alrededor de un astro en colapso o en expansión, a condición de que éste siga siendo exactamente esférico. Si el Sol se pusiese a vibrar inflándose y desinflándose en la misma forma en todas las direcciones, o incluso si se le reemplazase por un agujero negro esférico de misma masa, la geometría del Sistema Solar no cambiaría. Las órbitas de los cometas y de los planetas no se verían afectadas. Simplemente no habría ya luz. Gracias al teorema de Birkhoff, se sabe pues que el comportamiento de los rayos luminosos emitidos por una estrella en contracción esférica está descrito fielmente por geodésicas de la geometría de Schwarzschild.

La figura 26 muestra cuatro episodios del colapso gravitatorio de una estrella esférica con retención progresiva de la luz. Antes del colapso (Figura 26a) la masa de la estrella está repartida en un volumen mucho más grande que el delimitado por el del radio de Schwarzchild. Según la teoría de la Relatividad General, su campo gravitatorio marca con una huella todavía ligera el «tejido elástico» del espacio-tiempo. La luz que abandona un punto en la superficie de la estrella puede escaparse en línea recta y en cualquier dirección. Después la estrella se colapsa (Figura 26h). A medida que su radio real se acerca al radio crítico de Schwarzschild, el pozo gravitatorio se ahonda, la curvatura del espacio-tiempo se acentúa y en virtud del Principio de Equivalencia, las trayectorias de los rayos luminosos

obligados a seguir la curvatura, se desvían de la línea recta pero manteniéndose como geodésicas. Cuando el radio de la estrella alcanza una vez y media el radio de Schwarzschild las señales luminosas transmitidas tangencialmente «caen» a la superficie como el chorro de agua de una fuente. Tejen una «esfera fotónica», especie de envoltura tenue de luz que rodea a la estrella en colapso gravitatorio, de la que los astrónomos lejanos verán huir indefinidamente algunos fotones. A medida que el colapso prosigue, cada vez menos rayos luminosos son capaces de evadirse. El «cono de escape» de la luz se estrecha (Figura 26c). Cuando la estrella alcanza el tamaño crítico de Schwarzschild, todos los rayos luminosos son capturados, incluso los que son emitidos radialmente (es decir, perpendicularmente a la superficie). El cono de escape se cierra completamente, la esfera fotónica ha desaparecido (Figura 26d). Es la extinción total. El agujero negro propiamente dicho ha nacido. Su superficie, la esfera de Schwarzschild, es una frontera más allá de la cual se hace imposible ver. Es un horizonte. El horizonte de sucesos El horizonte terrestre, delimitado por la curvatura de nuestro planeta, es una frontera de espacio más allá de la cual, el navegante no ve. El horizonte terrestre es relativo. Es un círculo centrado en el navegante, que se desplaza con él. Por contraste, el horizonte del agujero negro es absoluto. Es una frontera del espaciotiempo, independiente de todo observador, que divide los sucesos en dos categorías. En el exterior del horizonte es posible comunicar a distancias arbitrariamente grandes mediante señales luminosas. Este es el Universo ordinario en el que nosotros evolucionamos. En el interior del horizonte, los rayos luminosos no se encuentran ya libres para viajar entre los sucesos sino que son focalizados hacia el centro. EA comunicación entre sucesos queda sometida a severas limitaciones. Es el agujero negro. EA figura 27 es un diagrama de espacio-tiempo que representa la geometría de Schwarzschild alrededor de una estrella esférica en contracción gravitatoria conducente a la formación de un agujero negro. Es la figura más importante de este libro pues proporciona la primera clave de una comprensión seria de los agujeros negros. Por ello reclama una atención particular. Como todo diagrama de espacio-tiempo, la curvatura se visualiza por medio de los conos de luz. Recuérdese que en cada suceso el cono de luz está generado por las trayectorias de las ondas electromagnéticas y circunscribe las líneas de universo de todas las partículas materiales, que no pueden sobrepasar la velocidad de la luz. En ausencia de gravitación, todos los conos de luz son «paralelos» entre ellos, en el sentido en que sus lados están inclinados 45° y su abertura es de 90°. Tejen el espacio-tiempo plano de Minkowski, soporte de la Relatividad Restringida. En presencia de un campo gravitatorio, es decir de curvatura de la geometría subyacente, los conos de luz son desviados y su abertura se reduce. Para simplificar el esquema, se representan únicamente los rayos luminosos que se propagan en dirección radial (entrante y saliente). La esfera fotónica de la que se habló anteriormente no aparece pues. Lejos de la región en colapso, el espacio-tiempo es prácticamente plano y los conos de luz son rectos. En efecto, el campo gravitatorio engendrado por la masa central se desvanece conforme aumenta la distancia, y la curvatura del espacio-tiempo se esfuma. Se dice que el espacio-tiempo de Schwarzschild es asintóticamente plano queriendo significar con ello que a una distancia muy grande de la masa se funde en el espacio-tiempo de Minkowski. Al aproximarse a la fuente del campo gravitatorio, la curvatura se acentúa e influencia los conos de luz, que se cierran y se inclinan hacia el interior de la región en colapso. Los rayos

luminosos tienen cada vez más dificultad para escaparse. Llega un momento en que los conos de luz se han inclinado 45° y uno de sus lados se hace vertical, de manera que todas las direcciones de propagación permitidas son focalizadas hacia el centro del campo gravitatorio. Es el aprisionamiento definitivo de la luz, que corresponde a la formación del horizonte de sucesos, a r = 2 M. Más allá, los conos de luz están más inclinados todavía y su abertura es más reducida. Las trayectorias de todas las partículas materiales, circunscritas al interior de los conos de luz, convergen inexorablemente hacia la línea vertical r = 0. Este centro geométrico del agujero negro es una verdadera singularidad, en el que toda la materia y la curvatura del espacio-tiempo se comprimen indefinidamente. La formación del agujero negro se acompaña de la división del espacio-tiempo en dos dominios, separados por el horizonte de sucesos. La materia y la radiación pueden pasar del dominio exterior al dominio interior, pero no a la inversa. Es la justificación del término «agujero negro».

El viajero imprudente A gran distancia de un agujero negro esférico, el espacio-tiempo exterior no se distingue del que corresponde al Sistema Solar, ligeramente curvado por la masa central de nuestra estrella. Pero mientras la geometría de Schwarzschild se detiene en la superficie del Sol, a 700.000 km del centro, en el caso del agujero negro se prolonga hasta la singularidad central. Sin embargo las distorsiones características del agujero negro sólo se manifiestan en la proximidad del horizonte. Como toda fuente gravitatoria, un agujero negro engendra fuerzas de marea ''. Imaginemos un astronauta cayendo en caída libre hacia el agujero negro. Si el astronauta cae cabeza abajo, sus pies son atraídos más despacio que su cabeza. Su cuerpo es estirado por las fuerzas de marea, que son tanto mayores cuanto más próximo se encuentra del agujero negro. Admitamos que el cuerpo humano no pueda soportar tensión o presión superior a cien veces la presión atmosférica (que ya es de 1 kg/cm2). Un astronauta atraído por un agujero negro de 10 M® —cuyo radio es de 30 km— moriría por las fuerzas de marea mucho antes de alcanzar el horizonte, a una altura de 400 km. En el horizonte, ¡la presión

experimentada sería la misma que si se colgase de una viga de la torre Eiffel con la población entera de París suspendida de sus tobillos! No obstante, la intensidad de las fuerzas de marea depende de la densidad de materia que las genera. Cuanto más masivo es un agujero negro más débil es su densidad y más suave es la curvatura que imprime al espacio-tiempo exterior. Consiguientemente, los bordes de un agujero negro de mucha mayor masa que una estrella serían frecuentables por un ser humano. Nuestro astronauta-cobaya podría alcanzar sano y salvo el horizonte de un agujero negro de mil masas solares, y podría incluso explorar el interior de un agujero negro gigante de cien millones de masas solares, siendo las fuerzas de marea en el horizonte menores que las generadas por la Tierra, Traducción en lenguaje newtoniano de la curvatura del espacio-tiempo, ver p. 52.

Ya de por sí imperceptibles. Empero, una vez franqueado el horizonte, el astronauta sería capturado irresistiblemente por la singularidad central y allí, cualquiera que sea la masa del agujero negro, despedazado por fuerzas de marea infinitas. El tiempo congelado La figura 27 muestra además algunos rayos luminosos que salen desde E1; E2, E3, E4 de la superficie de la estrella en contracción y llegan a R|, R2, R3... a un astrónomo situado a gran distancia (cuya línea del universo es representada por una recta vertical). Se supone que los intervalos de tiempo entre los puntos de emisión Ej, E2, E3, E4 son estrictamente iguales cuando son medidos por un reloj situado en la superficie de la estrella y que participa en su hundimiento. El diagrama de espacio-tiempo prueba sin embargo que los intervalos de recepción entre R1; R2, R3... se hacen cada vez más largos. En el límite, el rayo luminoso emitido en E4 justo en el momento en que el horizonte de los sucesos se forma, toma un tiempo infinito para llegar al astrónomo exterior. Este fenómeno de «congelación temporal» es una ilustración extrema de la elasticidad del tiempo predicha por la teoría de la Relatividad de Einstein, según la cual el tiempo fluye diferentemente para dos observadores en aceleración relativa 8. La superficie de la estrella, en colapso gravitatorio está efectivamente acelerada respecto al astrónomo lejano que no participa en el movimiento de caída libre. Por consiguiente, el tiempo propio de colapso, medido por un reloj situado en la superficie de la estrella, es distinto del tiempo aparente de colapso, medido por un reloj lejano e independiente. La contracción de la estrella por debajo de su radio de Schwarzschild se efectúa en un tiempo propio, perfectamente finito, pero en un tiempo aparente infinito. El astrónomo lejano no podrá jamás ver la formación del agujero negro propiamente dicho y a fortiori, no podrá jamás ver más allá. La congelación del tiempo aparente, que se traduce por intervalos dilatados de recepción de las señales, se manifiesta igualmente por una disminución de la frecuencia aparente de la radiación que sale de la estrella, puesto que la frecuencia cuenta el número de 8

O, lo que viene a ser lo mismo según el Principio de la Equivalencia, en campos gravitatorios diferentes.

vibraciones de la onda luminosa por segundos 9. Si la frecuencia aparente de la radiación disminuye, su longitud de onda aparente aumenta; se dice que está desplazada hacia el

rojo, para tener en cuenta el hecho de que la mayor longitud de onda de radiación visible corresponde al color rojo (ver cuadro 1). El astrónomo lejano recibirá imágenes del colapso no sólo cada vez con mayor retraso, sino cada vez más «rojas» y de intensidad debilitada. La figura 28 es una ilustración más pintoresca de la congelación temporal. Un vehículo espacial tiene por misión explorar el interior de un agujero negro —con preferencia un agujero negro gigante, a fin de no ser destruido demasiado pronto por las fuerzas de marea. A bordo de él, el comandante envía un solemne saludo a la humanidad justo en el momento en que el vehículo franquea, sin esperanza de retorno, el horizonte de sucesos. Su gesto es transmitido a los espectadores lejanos por medio de imágenes televisadas. El film A muestra la serie de imágenes tomadas a intervalos iguales en el tiempo propio del astronauta. Representa pues la escena tal como puede ser observada por la tripulación a bordo del vehículo. El saludo del comandante comienza a 1356,00 segundos en el reloj de a bordo y se termina a los 1357,20 segundos. La travesía del horizonte que se produce durante el curso del gesto, no se acompaña de ningún fenómeno particular. Para los exploradores, la frontera del agujero negro no tiene nada de «mágico». El film B muestra la serie de imágenes recibidas sobre la pantalla de control de espectadores lejanos, a intervalos de tiempo aparente iguales. Inicialmente, el film es idéntico al precedente, pero a medida que el vehículo se aproxima al horizonte, el film se hace más lento. Los observadores lejanos continuarán recibiendo indefinidamente imágenes prácticamente idénticas, que muestran al astronauta eternamente fijado en la posición que tiene en el momento en que atraviesa el horizonte. De hecho a causa del desplazamiento de frecuencias y de la disminución de la intensidad, las imágenes aparentes se harán rápidamente demasiado débiles para ser visibles. Para los espectadores exteriores, toda la parte del viaje hacia el interior del agujero negro se ha perdido. La imagen de televisión transmitida por el vehículo justo en el momento de la travesía del horizonte es relegada al infinito, y todas las imágenes transmitidas ulteriormente abandonan el agujero negro sino que caen en la singularidad.

La congelación del tiempo en un agujero negro medida por un observador exterior —por muy próximo que se encuentre a los he-LOS_ es una propiedad tan chocante que el término de estrella congelada ha sido a menudo empleado lo para designar el agujero negro. Finalmente se ha abandonado pues no describe más que un aspecto muy parcial de la física de los agujeros negros. Si el horizonte de un agujero negro es relegado al futuro infinito de los espectadores exteriores, el agujero negro no es sin embargo por ello una quimera. Es posible asistir hasta el final a la escena del colapso gravitatorio a condición de ser un actor. La teoría de la Relatividad General permite explorar el interior del agujero negro (¡sin temor a los efectos de la marea!) ¡Vayamos pues a ello!

El mundo invertido

Vosotros los que entráis aquí abandonad toda esperanza. Dante, La Divina Comedia

Contrariamente a los astros compactos tales como las enanas blancas o las estrellas de neutrones, cuyo colapso gravitatorio ha sido interrumpido por una resistencia interna de la materia y que poseen una superficie dura, no hay nada que pueda parar el colapso gravitatorio una vez franqueado el radio de Schwarzschild y formado un horizonte de sucesos. Consiguientemente, el interior de un agujero negro está vacío con una singularidad en el centro ". Sobre todo, por los astrofísicos soviéticos. Quizás, esta extrapolación del colapso gravitatorio, sea demasiado ingenua. Se ignora el comportamiento dinámico real de la materia en el interior de un agujero negro; algunas especulaciones se tratarán en el capítulo 19.

Para los que ya refunfuñaban de las fantásticas densidades medias implicadas por los agujeros negros estelares, la situación ha empeorado aún más: ¡toda la masa del agujero negro está teóricamente encerrada en su mismo centro, en una singularidad matemática de volumen nulo! Antes de que abordemos el rompecabezas de la singularidad central, no

resuelto todavía por la física moderna, exploremos la región que le rodea. Esta región se «mueve» pues su geometría se hunde. En otras palabras, es imposible permanecer inmóvil en el interior de un agujero negro. Como se mostraba en el diagrama de espacio-tiempo de la figura 27, para permanecer a una distancia fija del centro se necesitaría una velocidad superior a la de la luz (las líneas de universo de distancia r constante son las rectas paralelas al eje del tiempo, que en el interior del agujero negro quedan fuera de los conos de luz). Ahora bien, la prohibición de sobrepasar la velocidad de la luz impuesta por la Relatividad, se aplica tanto en el interior del agujero negro como en el exterior. En el interior del horizonte, las únicas trayectorias permitidas —confinadas en los conos de luz— se encuentran focalizadas ineludiblemente hacia la singularidad central. A veces se asimila el interior de un agujero negro a un «mundo al revés». Esta imagen, fuente de muchas confusiones, debe su origen a la siguiente analogía. En la región exterior al horizonte de un agujero negro —por ejemplo la zona de espacio-tiempo en la que nosotros mismos evolucionamos—, es posible desplazarse en un espacio tridimensional en cualquier dirección, de atrás a adelante, de izquierda a derecha o de arriba a abajo. No obstante el tiempo fluye de forma inflexible en una sola dirección, desde el pasado hacia el futuro. El tiempo es una coordenada «directriz», cuyo flujo se llama causalidad (ver p. 43). En el interior de un agujero negro, los papeles están cambiados. La coordenada que describe la distancia al centro del agujero negro —que vale 2 M en el horizonte y O en la singularidad— se convierte en directriz, mientras que la coordenada que servía para describir el tiempo en el espacio exterior se hace de género espacio. El espacio se convierte de algún modo en «inexorable» en el interior de un agujero negro, en la medida en que toda materia está condenada a ver disminuir su coordenada de distancia, de la misma manera que en el espacio-tiempo exterior los sucesos son arrastrados hacia tiempos que crecen sin cesar. Ahora bien, estos conceptos deben manejarse con precaución. El que la coordenada temporal se haga del género espacio en el interior

del agujero negro, ¡no implica que en esta zona se pueda remontar el tiempo y violar la causalidad! Esta coordenada, que cambia el género al atravesar el horizonte, no representa el tiempo vivido, ni en el interior, ni siquiera en el exterior del agujero negro (en el que describe el tiempo aparente medido por relojes infinitamente lejanos). El único «tiempo» que tiene sentido físico es el tiempo propio, medido por relojes en caída libre hacia la singularidad. Ahora bien, el tiempo propio en el interior del agujero negro viene dado directamente por la coordenada de distancia al centro. Así pues, como en el exterior, el verdadero tiempo continúa fluyendo hacia el futuro. La diferencia es que este futuro tiene un fin: la singularidad en el centro del agujero negro. Entre el instante en que el vehículo en caída libre atraviesa el horizonte y el momento en que se estrella con la singularidad central (Figura 29) existe un intervalo finito de tiempo propio sea cual sea la potencia de sus motores o su dirección de navegación. Este tiempo de «gracia» es tanto mayor cuanto mayor es la masa del agujero negro. Para el caso de un agujero estelar de 10 M®, es sólo de una diez milésima de segundo, pero para un agujero negro gigante oculto en el núcleo de una galaxia la exploración puede durar una hora.

Capítulo 10 ILUMINACIONES Placa del negro hogar, soles reales de los arenales: ¡ah! pozo de magias. Arthur Rimbaud, Iluminaciones

Un problema de iluminación Una de las mejores maneras de representar concretamente un objeto, es la de fijar su imagen, fotografiarlo. ¿Podemos contemplar la posibilidad de fotografiar un agujero negro? La pregunta puede parecer chusca ya que, por definición, un agujero negro no deja escapar ninguna luz. Pero esto sucede también con todo cuerpo suficientemente frío para no ser por sí mismo una fuente detectable de radiación. Los objetos cotidianos deben iluminarse para poder verlos. En el dominio astronómico, los planetas, cuyo interior no está alimentado por energía termonuclear, permanecerían invisibles si su superficie no reflejase la luz del Sol '. A este respecto, lo que es cierto para un planeta lo es también para un agujero negro. En efecto, no se verá nada de un agujero negro en ausencia de toda fuente de iluminación, pero un agujero negro iluminado convenientemente es capaz de reenviar una imagen. El agujero negro puede fotografiarse bajo los focos de los proyectores. Cada cuerpo de la Naturaleza absorbe y refleja la radiación electromagnética a su manera. La experiencia ilustrada por la figura 30 consiste en iluminar con un haz de rayos paralelos diversas especies de cuerpos esféricos «idealizados», observando la luz reflejada en una dirección perpendicular a la de incidencia. El aspecto de la imagen recibida revela el modo de reaccionar los cuerpos, según su naturaleza, a las ondas electromagnéticas. Para el caso de un cuerpo perfectamente negro (por ejemplo una esfera pintada de un negro idealmente absorbente), todos los rayos luminosos son absorbidos y, en ausencia de reflexión, el observador no ve estrictamente nada de la esfera (Figura 30a). En el caso de una superficie mate (la de la Luna y los planetas), la luz se refleja de manera «isótropa», o lo que es lo mismo con idéntica intensidad en todas direcciones. Así pues, en cada punto de la superficie, un único rayo luminoso se desvía exactamente 90° respecto a la dirección incidente alcanzando al observador. El resultado (Figura 30b) recuerda la familiar imagen de la media Luna. El siguiente ejemplo es el de una esfera metálica perfectamente reflectora. En este caso, hay un único punto de la superficie que desvía 90° el rayo incidente enviándolo en dirección del observador. La imagen de la esfera (Figura 30c) se reduce a una mancha de luz única, situada a 0,707 veces el radio real de la esfera. Para terminar examinemos el caso de un agujero negro. La diferencia esencial con los cuerpos precedentes es que el agujero negro no tiene una superficie dura, tangible, en la que los rayos incidentes puedan chocar y reflejarse. Los rayos luminosos son desviados por el campo gravitatorio del agujero negro. La esfera de influencia del agujero negro no se reduce pues sólo a la superficie de éste —el horizonte de sucesos— sino que se extiende hasta el infinito. Las trayectorias de los rayos luminosos ya no son líneas rectas quebradas en el punto de impacto con la superficie, son líneas curvadas por el campo gravitatorio. Al efectuar la experiencia de iluminación, el campo gravitatorio del agujero negro desvía varios rayos luminosos en la dirección del observador. La imagen del agujero negro está constituida por una serie de manchas luminosas (Figura 30d). A la izquierda, a 2,96 veces

el radio de Schwarzschild del agujero negro, ' Júpiter, el planeta de mayor masa del Sistema Solar, posee una fuente de energía interna. Al contraerse ligeramente, su corazón transforma hidrógeno atómico en un hidrógeno «metálico» organizado en una red sólida análoga al del hielo. Esta «transición de fase» libera un poco de energía, que confiere a Júpiter una luminosidad propia ligeramente superior a la que proviene de la reflexión de la luz. Solar.

La imagen «primaria» proviene de los rayos luminosos desviados 90°. A la derecha, a 2,61 veces el radio de Schwarzschild, la imagen «secundaria» proviene de rayos que han dado media vuelta suplementaria, es decir desviados un total de 270°. El cálculo completo de las geodésicas del espacio-tiempo de Schwarzschild, que corresponden a las trayectorias de los rayos luminosos, muestra que existe una infinidad de imágenes, la tercera de ellas correspondiente a una desviación de 450°, y así sucesivamente al añadir media vuelta cada vez. Pero, en la práctica, las imágenes de orden superior a dos no pueden ser resueltas, en primer lugar por ser de una intensidad muy débil y en segundo lugar por hallarse muy próximas de las imágenes primaria y secundaria. Se concluye por ello que, entre las diversas especies de cuerpos no poseedores de brillo intrínseco, el agujero negro dista de ser el más sombrío. ¡Reenvía la luz mejor incluso que una esfera pintada de negro o que una esfera de metal reflector! El agujero negro glorioso Una variante de la experiencia precedente consiste en iluminar el agujero negro mediante rayos paralelos, observando la luz reflejada ya no en ángulo recto, sino en la misma dirección. Este «retorno» de luz del agujero negro se muestra en la figura 31. La imagen del agujero negro propiamente dicha aparece magnificada, siendo su diámetro aparente 2,6 veces mayor que su diámetro real. Esto proviene del hecho de que una buena parte del haz incidente es capturado por el agujero negro: no sólo los rayos que interceptan directamente el horizonte de sucesos, sino además los que pasan a menos de 5,2 M del centro (el radio propio del agujero negro es igual a 2 M). Por otra parte, el disco negro está rodeado de una especie de aureola, constituida por una serie de anillos luminosos concéntricos. El anillo exterior es delineado por los rayos que han realizado una media vuelta, los anillos más internos por los rayos que han realizado medias vueltas suplementarias. La imagen evoca el efecto de gloria bien conocido en óptica tradicional: cuándo la luz solar se difunde a través de la niebla, debido a las numerosas gotitas de agua, es posible a veces percibir reflejada la sombra de la propia cabeza, rodeada de anillos brillantes centrados sobre la línea de visión. En el caso del agujero negro glorioso, sólo sería visible el anillo exterior, al no ser la resolución suficiente para poder distinguir los retornos de luz de orden superior.

Cara y cruz Estas hipotéticas experiencias no constituyen en ningún modo un juego gratuito, pues, si los agujeros negros existen realmente en la Naturaleza, tienen grandes posibilidades de ser iluminados por fuentes de luz exteriores. Tanto para un agujero negro como para un planeta, la fuente de iluminación más evidente es una estrella. Esta estrella puede por ejemplo estar acoplada al agujero negro en un sistema binario. Aunque tales asociaciones estén quizás ampliamente esparcidas en la Galaxia, los agujeros negros correspondientes no serían detectables a través de este efecto, pues la imagen de la estrella acompañante reflejada por el agujero negro se encuentra sumergida en la imagen directa, que es mucho más intensa. Una situación más interesante desde el punto de vista observacional es aquella en que la fuente de iluminación está constituida por una serie de anillos materiales en órbita alrededor del agujero negro. Desarrollaré en la última parte de este libro las razones por las que se cree que numerosos agujeros negros se encuentran rodeados por tales estructuras materiales, a las que se les llama discos de acrecían. Los anillos del planeta Saturno son un célebre ejemplo de disco de acreción; están constituidos por guijarros y hielo amalgamados, mientras que en el caso de un agujero negro los anillos de acreción están compuestos por gas caliente 2. Este último cae poco a poco en espiral hacia el agujero negro, de forma análoga al movimiento del agua arrastrada en un torbellino. La caída de gas está acompañada por una elevación de su temperatura y una emisión de radiación. Es la fuente de iluminación: los anillos de acreción brillan e iluminan el agujero negro central. La figura 32 muestra los contornos de un disco circular que rodea a un agujero negro esférico. La imagen se ha fotografiado a gran distancia, en una dirección ligeramente inclinada por encima del plano del disco. La fuerte curvatura del espacio-tiempo en torno al agujero negro se manifiesta por una distorsión de la imagen aparente del disco, que no se reduce ya a un conjunto de elipses, como sucede cuando se observa desde la Tierra los anillos de Saturno a través de un espacio-tiempo prácticamente plano. Aquí, la imagen se descompone en dos. La imagen primaria está formada por rayos luminosos emitidos por la parte superior del disco, que son desviados menos de 180°. Sorprende una primera comprobación: la totalidad de la parte superior de los anillos es visible, incluyendo la parte que estaría «normalmente» oculta en una geometría sin curvatura (los anillos de Saturno observados desde la Tierra están parcialmente ocultos por el disco del planeta). Pero la sorpresa es aún mayor al comprobar que la curvatura del espacio-tiempo alrededor del agujero negro permite también ver la parte inferior de los anillos. Es la imagen secundaria. ¡El disco de acreción del agujero negro puede verse tanto por la cara como por la cruz! De hecho, existe una infinidad de imágenes, pues los rayos luminosos emitidos por el disco pueden enrollarse un número arbitrario de veces alrededor del agujero negro antes de escapar a su Otra diferencia importante viene del hecho de que el disco de acreción de un agujero negro es alimentado constantemente por gas, mientras que el de Saturno sólo es un vestigio del Sistema Solar primitivo.

campo gravitatorio y llegar a un astrónomo lejano. La imagen primaria muestra la parte de arriba, la imagen secundaria muestra la de abajo la imagen terciaria muestra de nuevo la parte de arriba y así sucesivamente. Sin embargo, las imágenes de orden superior a dos no presentan interés óptico al encontrarse literalmente pegadas a la frontera del disco negro central, que representa la imagen ampliada del agujero negro propiamente dicho. El agujero negro fotografiado Estas experiencias de iluminación, aunque idealizadas, tienen al menos el mérito de mostrar que un agujero negro actúa sobre la radiación, a través de su campo gravitatorio, como una lente, multiplicando las imágenes de una fuente única. Pasemos ahora a una situación más realista. Los anillos de materia en órbita alrededor de cuerpos celestes han sido muy estudiados durante los últimos veinte años, pues se aplican a un gran número de fenómenos astronómicos: los planetas (Saturno, Júpiter, Urano), y también los sistemas de estrellas dobles en los que uno de los acompañantes es un astro condensado (enana blanca, estrella de neutrones o agujero negro). Este último aspira, debido a su intenso campo gravitatorio, el exceso de gas de su acompañante, lo almacena en un disco de acreción y lo consume progresivamente. Los modelos detallados de discos de acreción explican satisfactoriamente la radiación de alta energía emitida por algunos sistemas de estrellas dobles tales como Cygnus X-l. A mucha mayor escala, la prodigiosa luminosidad de ciertos núcleos galácticos y de los

quásars puede también explicarse por la caída de materia en un agujero negro gigante de varios millones, incluso varios miles de millones de masas solares. Una discusión detallada del papel de los agujeros negros en estos diversos fenómenos astronómicos será el objeto de la última parte de este libro. Por ahora, bástenos con saber que, cuando el consumo de materia tragada por el agujero negro no es demasiado elevado, la materia puede formar efectivamente un disco de acreción muy delgado, cuya emisión de radiación puede calcularse con precisión. En 1978, he reconstituido la apariencia fotográfica de un agujero negro esférico rodeado de un disco gaseoso muy delgado, utilizando el ordenador para calcular las trayectorias en el espacio-tiempo de Schwarzschild (Figura 33).

En un disco delgado, la intensidad de la radiación emitida en un punto dado del disco sólo depende de su distancia al agujero negro. La imagen reconstituida es pues universal, es decir independiente de la masa del agujero negro y del consumo de gas engullido. Puede representar, tanto un agujero negro de 10 km de radio, como un gran agujero negro del tamaño del Sistema Solar, atrayendo el gas interestelar. Como en la figura 32, la parte superior del disco es totalmente visible. Sin embargo, sólo una pequeña parte de la de abajo es observable. En efecto, en una situación realista, el disco gaseoso es opaco, pues absorbe los rayos luminosos que intercepta. Se deduce de ello que la mayor parte de la imagen secundaria —que muestra la parte inferior del disco— permanece oculta por la imagen primaria, estando la parte visible, muy deformada, pegada a la frontera del agujero negro. Ninguna radiación surge de la región que se intercala entre el agujero negro y el borde interno del disco. Las propiedades del espacio-tiempo de Schwarzschild prohíben a un disco de acreción delgado tocar la superficie del agujero negro. Las órbitas casi circulares seguidas por el gas del disco sólo pueden mantenerse hasta una distancia crítica igual a tres veces el radio de Schwarzschild. A menor distancia, el disco es inestable; las partículas de gas se sumergen directamente en el agujero negro sin tener tiempo de emitir radiación electromagnética. La característica principal de la «fotografía» del agujero negro es la diferencia de luminosidad aparente entre las distintas regiones del disco. El máximo brillo proviene de las regiones internas, más próximas al horizonte, pues allí es donde el gas está más caliente. Pero la luminosidad aparente del disco es muy diferente que su luminosidad intrínseca. Aparte de la distorsión geométrica de los anillos circulares, la radiación captada a gran distancia por una placa fotográfica tiene una frecuencia y una intensidad desplazadas respecto a la radiación emitida. Estos efectos de desplazamiento son de dos clases. El campo gravitatorio origina siempre una disminución de la frecuencia y un debilitamiento de la intensidad. A este efecto Einstein varias veces mencionado se superpone el efecto Doppler mas conocido, provocado por el movimiento de la fuente respecto al receptor, que se traduce por una amplificación en caso de acercamiento o un debilitamiento en caso de alejamiento 3. Aquí, el efecto Doppler es originado por el movimiento de rotación del disco en torno al agujero negro. Las regiones del disco más próximas al agujero negro giran a una velocidad cercana a de la luz, de manera que el desplazamiento Doppler es considerable. El sentido de rotación del disco es tal que la materia se aleja del observador en la parte derecha de la fotografía y se acerca a él en la parte izquierda. Cuan do la materia huye, el desplazamiento Doppler se añade al gravita-torio, lo que explica el debilitamiento muy fuerte de la imagen en la mitad derecha del cliché. Por el contrario, en la mitad izquierda, los dos efectos tienden a anularse, lo que permite a la imagen mantener aproximadamente su intensidad intrínseca. 3

Ver también capítulo 16.

Capítulo 11

DESCENSO EN EL REMOLINO Fui poseído por la más ardiente curiosidad respecto al remolino mismo. Sentí positivamente el deseo de explorar sus profundidades, incluso al precio del sacrificio que iba a hacer; mi principal pesar era pensar que no podría nunca contar a mis compañeros los misterios que iba a conocer. Descenso en el remolino, Edgar Allan Poe, 1840

El agujero negro de Kerr Todas las estrellas giran sobre sí mismas. Por esta razón, no son exactamente esféricas sino ligeramente achatadas por los polos. El colapso gravitatorio de una estrella real no viene pues exactamente descrito por la solución idealmente esférica de Schwarzschild. En este caso, la geometría del espacio-tiempo exterior se hace mucho más complicada debido a la emisión de ondas gravitatorias. ¿Por qué las ondas gravitatorias vienen a perturbar la geometría? La explicación es simple: la materia en movimiento (por ejemplo una estrella en rotación) tiene un campo gravitatorio que varía con el tiempo. Por consiguiente, la curvatura que imprime al espacio-tiempo debe adaptarse en cada instante a la nueva configuración de la materia. Estos reajustes se propagan a la velocidad de la luz en forma de «arrugas» de la curvatura que recorren la geometría de base. Son las ondas gravitatorias '. Cuanto más alejada de la forma esférica perfecta está una estrella en proceso de colapso, más importante es la emisión de ondas gravitatorias. Si el colapso prosigue hasta el estadio de agujero negro, es decir hasta la formación de un horizonte de sucesos, entonces todo se simplifica de repente. Ciertamente, en el momento de su nacimiento el horizonte puede tener todavía una forma irregular, encontrarse agitado por violentas vibraciones. Pero en una fracción de segundo las ondas gravitatorias disipan todas las irregularidades (Figura

34).

El horizonte cesa de vibrar y toma una forma lisa y única: un esferoide achatado por los polos debido a las fuerzas centrífugas. Esta es la razón por la cual el campo gravitatorio de un astro en rotación que se colapsa en agujero negro alcanza un estado de equilibrio final que sólo depende de dos parámetros: la masa y el momento angular. Esta última cantidad, ligada al movimiento de rotación del astro sobre sí mismo, es análoga al espín de las partículas elementales (ver p. 9).

Ver capítulo 18.

Existe precisamente una solución exacta de las ecuaciones de bms-Einstein que depende únicamente de estas dos magnitudes. Fue descubierta por el neozelandés Roy Kerr en 1962, y describe el campo gravitatorio de un agujero negro en rotación. Es sin duda un descubrimiento teórico cuyas implicaciones astronómicas son considerables, comparables a lo que puede aportar a la física fundamental el descubrimiento de una nueva partícula elemental. Esto siempre ha ocurrido así en la Ciencia: teoría y experiencia se fecundan mutuamente. Contrariamente a la geometría de Schwarzschild, que representa el campo gravitatorio generado por una masa esférica, estática o no, colapsada en agujero negro o no, la geometría de Kerr describe una solución de equilibrio final, válida no en el transcurso del colapso de la estrella en rotación sino únicamente cuando se ha formado un horizonte de sucesos irregular, una vez «barridas» por las ondas gravitatorias todas las distorsiones. El agujero negro maximal La mayoría de las estrellas se encuentran en rotación diferencial. Formadas por gas más o menos denso, las diferentes capas no giran a la misma velocidad. En el Sistema Solar, las atmósferas de los planetas gaseosos como Júpiter y Saturno muestran bien a las claras los efectos de la rotación diferencial exhibiendo bandas alargadas paralelas al ecuador. El agujero negro de Kerr, por su parte, se encuentra en rotación perfectamente rígida: todos los puntos del horizonte tienen la misma velocidad angular. Por otra parte, si las estrellas giran, no pueden girar a cualquier velocidad. Incluso las estrellas de neutrones, verdaderas peonzas del cielo, no efectúan más de mil vueltas por segundo: más allá, se dislocarían bajo la acción de las fuerzas centrífugas. Sucede lo mismo con el agujero negro. Existe un momento angular crítico por encima del cual el horizonte de sucesos «estallaría», dejando la singularidad central al desnudo. Este límite corresponde a una velocidad de rotación del horizonte igual a la velocidad de la luz. Para tal agujero negro calificado de «maximal», la gravedad en el horizonte de sucesos se anula; en lenguaje newtoniano, se diría que en la superficie de un agujero negro maximal las fuerzas de repulsión centrífugas se compensan exactamente con las fuerzas de atracción gravitatoria. Es posible que la mayoría de los agujeros negros formados por hundimiento de una estrella masiva tengan un momento angular próximo al límite crítico. En efecto, numerosas estrellas en rotación, aunque muy alejadas del estado de agujero negro, tienen ya un momento angular elevado (el del Sol alcanza el 20 % del límite crítico). Si el momento angular se conserva en el curso del colapso 2, es pues verosímil que los agujeros negros estelares se encuentren próximos del estado maximal. Así, los agujeros negros de 3 M®, a los que se considera como los «motores» de las fuentes X binarias (ver 4.a parte), deben efectuar cerca de 5.000 vueltas por segundo. Pero cuidado: el agujero negro no es una peonza que gira en un espacio exterior inmóvil. No se trata de colgar una lámpara en el horizonte del agujero negro para contar el número de vueltas por segundo. En el transcurso de su rotación, el agujero negro de Kerr arrastra al espacio-tiempo en su totalidad }. Teóricamente, el espacio-tiempo sólo cesa de «girar» a una distancia infinita, pudiéndose atribuir entonces una velocidad angular al horizonte del agujero negro. Más cerca, el espacio-tiempo es aspirado en un movimiento de remolino. Después del aprisionamiento de luz, he aquí la segunda característica fundamental del agujero negro: un remolino cósmico.

El remolino cósmico

¡Pero me queda poco tiempo para soñar con mi destino! Los círculos se estrechan rápidamente —nos sumergimos locamente en el abrazo del remolino— y, a través del bramar, el rugir y el tronar del Océano y de la tempestad, el navío tiembla —¡oh! ¡Dios!—¡se desencuaderna, se va a pique! E. A. Poe, «Manuscrito encontrado en una botella» 2

La conservación del momento angular explica las grandísimas velocidades de rotación de las estrellas de neutrones, ver capítulo 7. 3 La Relatividad General dice que es también cierto para todo cuerpo masivo en rotación; pero este arrastre de la geometría, el llamado efecto Lense-Thirring, es mínimo cuando el cuerpo no se ha colapsado en agujero negro.

Descenso en el remolino

Existe una analogía muy profunda entre un agujero negro en rotación y el familiar fenómeno del remolino, ya se trate del simple remolino de agua que se forma en el desagüe de una bañera, o a mayor escala de los remolinos gigantes producidos por las corrientes marinas, tales como el legendario Maëlstrom a lo largo de las costas de Noruega, tan bien descrito por Edgar Allan Poe en sus Narraciones Extraordinarias, o el no menos célebre Corrievreckan en el archipiélago de las Pequeñas Hébridas en Escocia, mencionado por Julio Verne en su novela El Rayo Verde 4. En un remolino, el agua es arrastrada en un movimiento en espiral que se descompone en un movimiento circular y un movimiento de aspiración hacia el centro. El movimiento circular se hace a una velocidad (puramente tangencial) proporcional a la inversa del cuadrado de la distancia al centro del remolino; el movimiento de aspiración se hace con una velocidad (puramente radial) mucho menor que la precedente, y que varía en razón inversa de la distancia al centro. Imaginemos ahora que un barco a motor se aventura en un remolino marino (Figura 35). Supongamos que en agua tranquila su motor le permite alcanzar una velocidad máxima de 20 km/h. Lejos del remolino, es evidente que el barco puede navegar a voluntad de su piloto que, gracias a su motor puede compensar fácilmente el movimiento de arrastre del agua. Puede pues permanecer en posición fija sin tener necesidad de echar el ancla, puede aproximarse o alejarse al remolino, o incluso navegar en sentido contrario a la corriente. Si el navegante decide aproximarse al centro del remolino, llega necesariamente un momento en que la velocidad circular de la corriente marina es igual a la velocidad propia máxima del barco: 20 km/h. En el interior de esta distancia crítica, el barco no puede ya mantener una posición fija, ni siquiera haciendo girar su motor a toda máquina. Es irresistiblemente arrastrado en el sentido de rotación del remolino. Dicho de otro modo, a partir de una posición inicial dada del barco, sus posibles direcciones de navegación no son ya arbitrarias sino que están limitadas al interior de un ángulo formado por las rectas surgidas de la posición del barco y tangentes a un «círculo de navegación» situado delante del barco. No obstante, aunque arrastrado por la corriente circular, el barco puede aún escapar al remolino, orientando convenientemente su trayectoria según una espiral saliente. Si el barco se aventura más cerca del centro del remolino, llega fatalmente un momento en que la velocidad radial de la corriente alcanza a su vez los 20 km/h límites del barco (la

velocidad circular es ya muy superior). Entonces, los círculos de navegación se sumergen de tal modo en las «fauces» del remolino que, como escribe Edgar Poe, «si un navío entra en la región de su atracción, es absorbido inevitablemente y arrastrado al fondo, y allí destrozado en pedazos». La analogía con la geometría de Kerr que reina en los alrededores de un agujero negro en rotación es transparente. Sin olvidar que al final de Veinte mil leguas de viaje submarino, Julio Verne ce desaparecer el submarino «Nautilus» en uno de estos remolinos marinos...

El centro del remolino es el agujero negro. La superficie del mar ahuecada por el remolino es el espacio-tiempo curvado por la gravitación y arrastrado «a la deriva» en el sentido del remolino. El barco es un navío espacial o cualquier partícula material, cuya velocidad máxima permitida es la de la luz, 300.000 km/s. Y, como indica la figura 36, el círculo de navegación en un punto dado es una proyección espacial del cono de luz que circunscribe las trayectorias permitidas. Los conos de luz no sólo son desviados hacia el interior del campo gravitatorio, sino que se ven igualmente arrastrados en el sentido de rotación del agujero negro. Esta «ronda» es inexorable en el interior del llamado límite estático. En esta región, los círculos de luz — proyección de los conos— están separados de su punto de emisión y desplazados hacia delante. Por consiguiente, la nave espacial no puede permanecer ya estática respecto a un referencial fijo

lejano (por ejemplo las estrellas), ni siquiera si su velocidad alcanza la de la luz. Más cerca aún del centro del agujero negro, existe una segunda superficie crítica a partir de

la cual los conos han basculado de tal modo hacia el fondo que nada puede ya escapársele. Se reconoce allí al horizonte de sucesos, la verdadera frontera del agujero negro de Kerr. El horizonte de sucesos se encuentra contenido enteramente en el límite estático, pero estas dos superficies características del agujero negro de Kerr son tangentes por los polos (Figura 37). Sus papeles son bien distintos. En el límite estático el tiempo aparece «congelado» y la radiación adquiere un desplazamiento hacia el rojo infinito, pero sólo en el horizonte de sucesos es donde la materia y la radiación están definitivamente aprisionados 5 .

La región de espacio-tiempo que se intercala entre el horizonte y el límite estático se llama la ergosfera. El término ha sido forjado por John Wheeler a partir de la palabra de griega que significa «trabajo», pues la utilización de alguna de sus propiedades desconcertantes permite teóricamente extraer la energía de rotación del agujero negro. Volveré sobre esta sorprendente especulación en el capítulo 13. El anillo singular La estructura interna de un agujero negro en rotación es mucho más compleja que la de un agujero negro estático. Primera diferencia notable: la singularidad central, en la que la curvatura se hace infinita, no es ya un punto sino un anillo yaciente en el plano ecuatorial. Este anillo no es ya un nudo de espacio-tiempo inexorable hacia el que toda la materia debe converger. Se hace posible viajar al interior de un agujero negro en rotación evitando el anillo singular, ya sea sobrevolándolo por encima de su plano, ya sea pasando a su través. Estas nuevas perspectivas de exploración de un agujero negro se desarrollarán en el siguiente capítulo. Otra diferencia: existe un segundo horizonte de sucesos, interior a la frontera propiamente dicha del agujero negro. Esta superficie de

5

El agujero negro de Schwarzschild, recuérdese, presentaba estas dos propiedades sobre su único horizonte.

forma esférica, rodea al anillo y «protege» de los efectos singulares 6 a la región situada entre el horizonte interno y el horizonte externo. Cuando el momento angular del agujero negro aumenta, los dos horizontes tienden a confundirse, agrandándose el tamaño del horizonte interno y disminuyendo el del horizonte externo. En el límite, para el agujero negro maximal girando a la velocidad crítica, los dos horizontes se dislocan. Ya no hay agujero negro sino sólo una singularidad gravitatoria desnuda. El agujero negro eléctrico Los agujeros negros formados por colapso gravitatorio tienen como precursores astros que poseen en general un campo magnético. Los agujeros negros pueden además tragar partículas electrizadas que componen en parte el medio interestelar (electrones y protones). Se puede pues legítimamente esperar que los agujeros negros tengan Propiedades electromagnéticas. En el sentido de que una señal emitida por la singularidad no puede salir del horizonte interno.

H. Reissner, en 1916, e independientemente, G. Nordstrom en 1918, descubrieron una solución exacta de las ecuaciones de Einstein que describe el campo gravitatorio generado por una masa cargada eléctricamente. Esta solución generaliza directamente la descubierta por Schwarzschild, añadiéndole sólo un parámetro: la carga eléctrica. Como posee también un horizonte de sucesos, describe el espacio-tiempo exterior a un agujero negro cargado eléctricamente. Si todas las propiedades electromagnéticas de un agujero negro se resumen solamente en su carga eléctrica, es que la estructura electromagnética del astro progenitor (líneas de campo, existencia de polos magnéticos, etc.) ha debido simplificarse considerablemente en el transcurso de la formación del agujero negro. Una vez más, las ondas gravitatorias se han llevado la mayor parte de los atributos electromagnéticos del astro, no dejando subsistir más que una carga eléctrica global, no localizada en el horizonte, análoga a la carga eléctrica de una partícula elemental. Esta carga no modifica en modo alguno la forma del agujero negro, que continúa siendo perfectamente esférica en ausencia de rotación. La carga eléctrica de un agujero negro no puede ser arbitrariamente grande. Existe un valor crítico por encima del cual el horizonte de sucesos es destruido por las colosales fuerzas de repulsión electrostáticas que se ejercen sobre él. Esta carga máxima es proporciona) a la masa del agujero negro, y para un agujero negro de 10 M® alcanza 1040 veces la carga elemental del electrón. Sin embargo, puede ser tanto negativa como positiva. La estructura interior de un agujero negro fuertemente electriza-do presenta rasgos comunes con la del agujero negro estático neutro y la del agujero negro en rotación; como para el primero, la singularidad central es puntual, pero, como para el segundo, esta singularidad está abrigada detrás de un horizonte de sucesos interno. El tamaño del horizonte interno se agranda y el del horizonte externo se reduce conforme aumenta la carga eléctrica. Cuando el agujero negro tiene la máxima carga admisible, los dos horizontes se fusionan y desaparecen, desvelando la singularidad gravitatoria a la mirada de astrónomos lejanos. A pesar de estas sutilezas, el interés de los agujeros negros electrizados es bastante académico en la medida en que los agujeros negros «naturales» son muy probablemente neutros. La razón profunda de la neutralidad eléctrica del agujero negro es idéntica a la que explica la neutralidad de la materia ordinaria: la insigne debilidad de la interacción gravitatoria respecto a la interacción electromagnética. Un cuerpo macroscópico (es decir el

que contiene un gran número de partículas elementales) contiene en cantidades aproximadamente iguales cargas de signo contrario (portadas por los electrones y los protones). Por el juego de las fuerzas electrostáticas, las cargas se asocian y se neutralizan. Imaginemos ahora que un agujero negro se forma teniendo inicialmente una carga eléctrica muy grande _digamos positiva—, cercana al valor máximo permitido. En un entorno astrofísico realista, el agujero negro no se baña en el vacío sino en el medio interestelar en el que circulan particularmente protones y electrones. Debido a su campo gravitatorio, el agujero negro atrae indistintamente electrones y protones, pero, debido a su carga eléctrica, atrae exclusivamente partículas de carga contraria, los electrones, y repele los protones. Ahora bien, las fuerzas electrofísicas son un millón de millones de millones de veces superiores a las fuerzas gravitatorias. Así pues, en un tiempo muy breve el agujero negro capturará todos los electrones disponibles y se neutralizará casi totalmente. En definitiva, la carga eléctrica de un agujero negro «natural» no puede ser superior a la mil millonésima de la mil millonésima parte de la carga máxima. Esto es tan poco que el papel astrofísico de la carga eléctrica de los agujeros negros puede ignorarse.

El agujero negro «lampiño» ¿Existe la misma diversidad en el mundo de los agujeros negros que en el de las estrellas? En otras palabras, además de la masa, el momento angular y la carga eléctrica, ¿qué parámetros físicos pueden atribuirse a un agujero negro? Una estrella o un trozo de azúcar son para el físico objetos de estudio fantásticamente complicados, en la medida en que su conocimiento completo, incluyendo la estructura atómica y nuclear, requiere el de miles de millones de parámetros. Ahora bien, el físico que analiza desde el exterior las propiedades de un agujero negro no encuentra las mismas dificultades. El agujero negro es por el contrario un objeto increíblemente simple: se sabe todo de él si se conocen sus tres parámetros de masa, momento angular y carga eléctrica. El agujero negro olvida prácticamente todo acerca de la complejidad de la materia que ha participado en su formación. No memo riza de ella ni la naturaleza ni la forma; sólo retiene de ella la masa, el momento angular y la carga (Figura 38). Esta simplicidad representa quizás la característica más fundamental del agujero negro. John Wheeler, a quien la teoría de los agujeros negros debe casi toda su terminología, ha formulado a partir de los años 1960 esta propiedad de manera pintoresca: «un agujero negro no tiene pelos.» Lo que no era al principio más que una pura conjetura ha llegado a ser muy recientemente un teorema matemático, probado gracias a los esfuerzos, escalonados durante quince años, de media docena de teóricos entre los cuales se encuentran Brandon Carter, del Observatorio de Meudon, y el australiano Gary Buntmg. Confirmando el enunciado de Wheeler, sus trabajos demuestran que tres parámetros, y sólo tres, son suficientes para describir completamente la geometría de espacio-tiempo en torno a un agujero negro en equilibrio. Para el teórico, resulta de ello una simplificación considerable sólo

en cuatro especies diferentes de agujeros negros, según que tal o tal parámetro entre en juego 7. Recapitulemos: el agujero negro esférico y estático de Schwarzschild se contenta con tener una masa; el agujero negro de Reissner Nordstrom, igualmente esférico y estático, contiene además una carga eléctrica; el agujero negro de Kerr es una masa neutra en rotación; en fin, el agujero negro en equilibrio más general, masa electrizada en rotación, ha sido calculado en 1965 y porta el nombre de Kerr-Newman. Esta última solución representa el estado final único natural del colapso gravitatorio por debajo de un horizonte. Sin embargo, al representar la carga eléctrica un papel irrelevante por las razones explicadas anteriormente, un agujero negro «realista» viene correctamente descrito por la solución de Kerr. Una vez más es la emisión de ondas gravitatorias que acompaña la formación de un agujero negro la que barre la complejidad estructural de la materia. Esta «afeita» al agujero negro

para no dejarle mas que su masa, su momento angular y su carga eléctrica. Estas magnitudes físicas son características precisamente de las dos interacciones de largo alcance que presiden la formación del agujero negro: la gravitación (para la masa y el momento angular) y el electromagnetismo (para la carga). Las interacciones nucleares de corto alcance, que estructuran los núcleos atómicos, no juegan ningún papel en la formación de un agujero negro. Los parámetros del agujero negro son perfectamente medibles, al menos por «experiencias imaginarias». Se podría pesar un agujero negro situando un satélite en órbita alrededor de él y midiendo su período orbital. Se podría igualmente medir su momento angular comparando las desviaciones de rayos luminosos enviados a una y otra parte de su horizonte. Para un agujero negro general de Kerr-Newman de masa dada, los otros dos parámetros de carga eléctrica y de momento angular no pueden ser arbitrariamente grandes. Están ligados por una relación que asegura la existencia misma de la frontera del agujero negro, el horizonte de sucesos. Si esta ligadura fuese violada —por ejemplo en el momento del colapso gravitatorio de una estrella masiva—, el agujero negro daría lugar a una singularidad desnuda, capaz de influenciar el Universo a distancias considerables. Los físicos tienen buenas razones para creer que tal situación viene censurada por la misma naturaleza de las cosas 8. Por el restringido número de parámetros que le caracterizan, un agujero negro tiene en definitiva el mismo orden de simplicidad que una partícula elemental. Pero, examinando con más profundidad la condición de existencia de un horizonte de sucesos, se percibe que no haya nada, de hecho, más alejado de un agujero negro que una partícula elemental, incluso si ésta reúne masa, momento angular y carga en un volumen extremadamente pequeño. Tomemos el caso del electrón. Se conoce experimentalmente su masa, su momento angular (es decir su espín) y su carga eléctrica. Si se comparan entre sí los valores de los parámetros del electrón, se percibe que, respecto a la masa, la carga eléctrica y el momento angular, son tan grandes que la condición de agujero negro se viola en un factor de 1088. ¡Este número desmesurado, que sobrepasa incluso el número total de partículas elementales existentes en el Universo observable, mide lo lejos que el electrón se encuentra de un agujero negro de Kerr-Newman ' La masa, responsable del campo gravitatorio, es naturalmente tomada en cuenta de modo automático.

Capítulo 12

JUEGOS DE CARTAS La carta no es el territorio. Alfred Korzybski Este importante tema se aborda en el capítulo siguiente. ¡Esto no significa, sin embargo, que el electrón sea una singularidad desnuda!

El negro y el blanco El espíritu humano tiene una atracción natural por la simetría. Desde la Antigüedad, los físicos tratan de demostrar los mecanismos de la Naturaleza en términos de simetrías elementales. Lo más sorprendente es que esta concepción ha sido coronada a menudo por el éxito. La predicción teórica de las «antipartículas», seguida poco después de su descubrimiento experimental, es a este respecto un éxito ejemplar. El uso de la simetría prevalece más que nunca en los desarrollos más recientes de la física fundamental. El agujero negro tiene su simétrico: el agujero blanco, especie de surtidor gravitatorio fuera de una región oculta bajo un horizonte. Las interpretaciones apresuradas del agujero blanco han popularizado la idea según la cual sería posible viajar instantáneamente por el Universo tomando túneles que conecten agujeros negros y agujeros blancos. Este género de consideraciones ha reforzado naturalmente la fascinación que pueden ejercer los agujeros negros sobre la mayoría del público, pero por otra parte ha perjudicado su credibilidad cara a la comunidad científica no especializada en Relatividad General. ¿Cuál es el estatuto real de los agujeros blancos? Esta cuestión surge del delicado problema de relaciones entre el mundo real y su descripción matemática; o si se prefiere entre el mapa y el territorio. Tomemos un simple ejemplo. Una de las simetrías de las leyes de la Física que más se manifiestan es la inversión temporal. La Mecánica de Galileo y de Newton, la Óptica de Fresnel, el Electromagnetismo de Maxwell o la Relatividad de Einstein están todos descritos por ecuaciones simétricas respecto al tiempo. Es por ello por lo que a partir de unas condiciones fijadas en un instante dado las ecuaciones permiten calcular las trayectorias de un planeta, de un rayo luminoso o de un electrón tanto en el futuro como en el pasado. Esto no significa sin embargo que la Naturaleza sea realmente indiferente al fluir del tiempo. ¡Los rayos luminosos que abandonan la superficie de las estrellas se propagan realmente en el futuro y no en el pasado! En otras palabras, las soluciones de las «ecuaciones de la Física» no corresponden forzosamente al mundo real. Sin embargo no siempre es fácil hacer la criba entre las soluciones reales y las soluciones ficticias. En particular, se impone la mayor prudencia en la interpretación física de las soluciones simétricas, incluso si éstas son estéticamente atractivas. Dennis Sutton ha escrito: «Las fronteras de la Ciencia son siempre una extraña mezcla de nuevas verdades, de hipótesis razonables y de conjeturas extravagantes.» Esta cita se aplica bien al espíritu de este libro: se puede afirmar hoy que la teoría de la Relatividad General pertenece a la primera categoría, los agujeros negros a la segunda y los agujeros blancos a la tercera. No es por ello menos cierto que las especulaciones «extravagantes» hacen a menudo avanzar la Ciencia, y a este respecto los agujeros blancos merecen que uno se detenga en ellos. Se añade a su encanto el que su estudio tome en cuenta una componente lúdica de la investigación científica a menudo desconocida de la mayoría del público pero esencial para el físico. ¡Así pues, juguemos!

El juego de la inmersión La comprensión de las nociones abstractas choca a menudo con problemas de visualización. Tomemos el espacio-tiempo. La analogía entre el «tejido espacio-temporal» localmente curvado por la materia y la «banda elástica» deformada por ciertas bolas permite

ciertamente representarse mentalmente algunos aspectos de la curvatura ¿e geometrías abstractas de cuatro dimensiones. Pero este tipo de representación, ¿puede llegar a ser riguroso? Sí, gracias a un pasatiempo matemático llamado inmersión. Como su nombre indica, el juego consiste en visualizar la forma de un espacio dado sumergiéndole en un espacio de dimensión superior. Se visualiza perfectamente la forma de un círculo (de dimensión 1) sumergiéndolo en el plano (de dimensión 2), o la superficie de la esfera (de dimensión 2) en el espacio euclídeo ordinario (de dimensión 3). Aplicado al espacio-tiempo completo, el juego de la inmersión no llega a ser eficaz a causa de las limitaciones de nuestros sentidos. ¡Es imposible visualizar la geometría de un espacio-tiempo curvado en cuatro dimensiones sumergiéndolo en un espacio ficticio mayor! ] Felizmente, el juego de la inmersión admite algunas variantes operativas. Supongamos por ejemplo que el espacio-tiempo sea estático, es decir que su geometría espacial permanezca en cada momento idéntica a sí misma. En este caso no se pierde ninguna información no visualizando más que cortes instantáneos. Además, al ser esférica la geometría espacial, no se pierde nada de información no mirando más que cortes ecuatoriales que pasan por el centro de la esfera. A fin de cuentas, ¡se puede perfectamente cortar un espacio-tiempo esférico y estático en rebanadas espaciales bidimensionales, sin perder la menor información sobre la curvatura del espacio-tiempo completo! Entonces llega a ser fácil visualizar todos los detalles de la curvatura sumergiendo la superficie obtenida en un espacio euclídeo de tres dimensiones 2. Pasemos inmediatamente a la práctica y apliquemos el juego de la inmersión al espaciotiempo deformado por una estrella esférica en equilibrio, por ejemplo el Sol. Como la geometría es estática, tanto en el exterior de la estrella como en el interior, las rebanadas ecuatoriales instantáneas tienen todas el mismo aspecto, representado por la superficie curva de la figura 39. La forma de esta superficie evoca efectivamente la de un tejido Es, inclusoo, matemáticamente posible sumergir un espacio-tiempo cuadridimensional en un espacio euclídeo de cinco dimensiones. 2 Que no es más que un espacio ficticio, que sólo S1rve para «encuadrar» el espacio-tiempo seccionado.

elástico localmente deformado por el peso de una bola. Se subdivide en dos regiones. La zona que se extiende hasta el infinito representa el espacio-tiempo exterior a la estrella. Es un trozo de la geometría de Schwarzschild. En cuanto a la zona ocupada por la estrella, su forma exacta depende de la estructura interna de la estrella pero permanece de todas maneras próximas a la de una porción de esfera. Puesto que la estrella no está colapsada, el radio crítico de Schwarzschild r = 2 M se encuentra en el interior de la estrella y no hay ninguna singularidad central: el hueco tiene una curvatura perfectamente regular. Este tipo de visualización, a la vez pedagógica y rigurosa, ha sido ya utilizado en la figura 16 para representar la curvatura de los rayos luminosos en torno del Sol.

Juegos de cartas 193

El agujero de gusano Las formas sedentarias construyen tubos transitorios o definitivos. El Arenícola habita una simple galería en U. Enciclopedia Universal, «Anélides»

Apliquemos el juego de la inmersión a la geometría del espacio-tiempo generada por un agujero negro esférico. Como muestra la fisura 40, la superficie de inmersión nos reserva una sorpresa: está constituida por una garganta que une dos hojas distintas y simétricas de espacio-tiempo que tienen la forma de una paraboloide 3. ¿Cómo interpretar esta forma inesperada?

Contrariamente al caso de la estrella ordinaria, sólo el espacio-tiempo exterior a la superficie del agujero negro puede ser representado. El centro de la garganta tiene un radio mínimo igual al radio de Schwarzschild r = 2 M. Es pues el horizonte de sucesos, la frontera del agujero negro reducida a un círculo. Olvidemos un instante la estructura doble de la superficie de inmersión y examinemos con mayor detenimiento la hoja superior (Figura 41). Se extiende hasta el infinito y pierde poco a poco su curvatura a gran distancia de la garganta: es asintóticamente plana. Las trayectorias de las partículas materiales en caída libre y los rayos luminosos son las «rectas» trazadas sobre la superficie curva, es decir las geodésicas. Estas están tanto más curvadas cuanto más cerca pasan del pozo gravitatorio. Algunas de ellas se sumergen suficientemente en el pozo para interceptarse ellas mismas a la salida, y las que encuentran el círculo medio de la garganta —el horizonte— no pueden ya salir. Superficie generada por una parábola que gira alrededor de su eje de simetría.

En la figura 42 se proyectan las geodésicas precedentes sobe un laño (P) paralelo al círculo del horizonte. El resultado ilustra perfectamente el Principio de Equivalencia, representando la ilusión newtoniana de un universo plano en el que las partículas son desviadas de la trayectoria rectilínea por «fuerzas» de gravitación, en lugar de seguir libremente los contornos de una geometría curva subyacente. Volvamos ahora a la superficie de inmersión en su totalidad (Figura 40). La garganta de Schwarzschil 4 enlaza la hoja superior con una segunda hoja perfectamente simétrica y asintóticamente plana, que podemos interpretar como un «universo paralelo». Una geodé-

sica que entra en la garganta a través de la hoja superior parece poseer la facultad de salir por la hoja inferior. Dicho de otra manera, la garganta de Schwarzschild actuaría respecto al universo de arriba como un agujero negro que aspirase materia, actuando sin embargo respecto al universo de abajo como un «anti-agujero negro» que expulsase materia. No ha hecho falta mucha imaginación para denominar al anti-agujero negro un agujero blanco, o más juiciosamente una. Fuente blanca (invirtiendo a la vez el sustantivo y el adjetivo). El juego de la inmersión se hace aún más desconcertante si se recuerda que la teoría de la Relatividad General sólo determina la curvatura local del espacio-tiempo y no dice nada sobre su forma global. En particular, tolera la interpretación de las dos hojas asintóticamente planas en términos de dos regiones diferentes del mismo universo. Matemáticamente, es como si se cortase a gran distancia de la garganta cada una de las dos hojas y se empalmasen entre sí para formar una sola superficie. El resultado de la operación, que se muestra en la figura 43, representa en todo momento un corte ecuatorial instantáneo de la geometría de Schwarzschild. Aún hay algo que molesta. En el universo real, las distancias entre estrellas, galaxias o eventuales agujeros negros son tan grandes que el espacio-tiempo es localmente plano casi doquiera, excepción hecha del inmediato entorno de las masas. Por consiguiente, la «U» formada por la conexión lejana de las dos hojas no debería estar curvada. Lo que viene a significar: es matemáticamente equivalente representar el espacio-tiempo bajo la forma desplegada correspondiente a la figura 44. Se tiene ya, en el mismo espacio-tiempo, un agujero negro y un agujero blanco, alejados arbitrariamente uno de otro, pero enlazados por un tubo estirado que John Wheeler ha bautizado como agujero de gusano, en recuerdo a las galerías excavadas por estos invertebrados. Debido a esta doble naturaleza de la geometría de Schwarzschild se ha abierto la puerta a las especulaciones más extravagantes sobre los viajes espacio-temporales. ¿Acaso sería posible sumergirse en un agujero negro, tomar el camino del agujero de gusano y salir por el agujero blanco para desembocar en una región muy alejada del universo, o incluso en un «universo paralelo»? Llamada también «puente de Einstein-Rosen».

El juego de Kruskal Para poder responder a esta interesante cuestión, sería preciso saber al menos lo que sucede en el interior de la garganta de Schwarzschild. Pero el juego de la inmersión sólo permite describir el espacio-tiempo exterior. En particular, la singularidad oculta en el fondo del agujero negro no está representada en la inmersión. Ahora bien, la singularidad es de algún modo el comodín: es la que decide acerca del paso eventual del agujero negro al agujero blanco. Para probarlo, es preciso servirse de un juego más completo inventado en 1960 por M. Kruskal. El juego de Kruskal es un diagrama de espacio-tiempo muy elaborado que permite representar sobre un plano las regiones centrales del espacio-tiempo del agujero negro de Schwarzschild. No es fácil de explicar, pero su importancia y el beneficio que de él se saca son tales que merece una detenida atención. Proyectar sobre un plano una superficie de dos dimensiones, es hacer una carta. La mayor parte de las superficies de dos dimensiones no pueden cartografiarse sin experimentar distorsión. El ejemplo más conocido es el de los mapas geográficos, que proyectan sobre un plano la totalidad o una parte de la superficie de nuestro planeta. Hay varias maneras de proyectar. La más utilizada es la de Mercator. Representa fielmente las regiones próximas al ecuador, pero introduce deformaciones cada vez más notables a medida que uno se aproxima a los polos. Todo el mundo se ha dado cuenta sin duda que en este tipo de mapa Groenlandia adquiere una importancia exagerada, pareciendo más vasta que Australia, mientras que su superficie es en realidad, 3,5 veces menor. la carta de Kruskal proyecta sobre un plano el espacio-tiempo de Schwarzschild —amputadas dos dimensiones espaciales— «forzando» a que permanezca rígida la red de conos de luz. Recuérdese que en el espacio-tiempo plano sin gravitación los conos de luz procedentes de todos los sucesos son «paralelos» entre sí, estando sus bordes inclinados siempre 45°, pero, en un campo gravitatorio, los conos se deforman y poseen diferente inclinación en cada lugar según la curvatura reinante. la proyección de Kruskal obliga a los conos de luz del espacio-tiempo de Schwarzschild a permanecer paralelos como si no existiese curvatura. Este tipo de proyección se denomina conforme, término que en geometría califica de manera general a las transformaciones que conservan los ángulos. En contrapartida, la carta de Kruskal introduce numerosas distorsiones en el espacio y en el tiempo, pero estas alteraciones no son en ningún modo obstáculo para el análisis detallado de la geometría de espacio-tiempo tejida por los conos de luz. En la carta de Kruskal (Figura 45), la distorsión se manifiesta por el hecho de que las trayectorias que corresponden a un tiempo aparente constante son rectas que pasan por el origen, mientras que las trayectorias referidas a una distancia constante del centro del agujero negro se convierten en hipérbolas. El horizonte de sucesos representa los dos papeles, ya que está a la vez a distancia constante r = 2 M del centro y a un tiempo aparente infinito. Viene representado pues por las dos bisectrices del plano, inclinadas 45°, que se interpretan también como una hipérbola degenerada reducida a sus asíntotas. Por otra parte el horizonte de sucesos, generado por los rayos luminosos, no es más que un cono de luz. Se descompone pues en dos partes: un horizonte del futuro y un horizonte del pasado. En el interior del horizonte, la singularidad gravitatoria r = O está constituida también por dos arcos de hipérbola, uno contenido en el pasado, y el otro en el futuro. Más allá de estas curvas límites, la carta de Kruskal deja de tener significado. En cuanto al universo exterior

al agujero negro, existe en dos hojas simétricas, una a la derecha del diagrama y la otra a la izquierda. ¿Como se desplaza uno por la carta de Kruskal? El interés por conservar una red fija de conos de luz reside en la visualización inmediata de todos los movimientos permitidos, tanto en el interior como en el exterior del horizonte. Estos movimientos tienen que permanecer confinados simplemente en el interior de los conos de luz. En otras palabras, no deben apartarse más de 45° de un lado y otro de la vertical.

Examinemos por ejemplo la trayectoria de un vehículo espacial en caída libre, sumergiéndose en el agujero negro y cayendo en la insularidad (curva ABCDE). Las señales electromagnéticas enviadas por el vehículo viajan a 45° (líneas onduladas). Un observador lejano cuya línea de universo sea un arco de hipérbola no puede recibir las señales emitidas en A, B, C, más que con un retraso cada vez mayor a medida que el vehículo se aproxima al horizonte. Nos encontramos así de manera natural con el fenómeno de congelación del tiempo aparente. Al atravesar el horizonte, en D, el retraso se hace infinito; el rayo luminoso se adhiere indefinidamente al horizonte de sucesos, no alcanzando a los observadores exteriores más que en el infinito temporal. En cuanto a la señal emitida en E, después de que el vehículo ha franqueado el horizonte, no puede ya salir del agujero negro estando condenada a caer en la singularidad futura. La carta de Kruskal explora la estructura más íntima del espacio-tiempo de Schwarzschild y permite ahora responder sin ambigüedad a las cuestiones concernientes al agujero blanco, el agujero de gusano y el paso al «otro universo». La región comprendida entre el horizonte de sucesos y la singularidad es ciertamente un agujero. ¿Pero cuál es su color? Es evidente que el negro debe atribuirse al interior del horizonte futuro (parte superior), allí donde se estrella el vehículo espacial. Se comprueba por otra parte que hay partículas materiales y señales electromagnéticas emitidas en el agujero en F que pueden salir perfectamente del horizonte y penetrar en el universo exterior. El interior del horizonte pasado (región inferior) es pues un agujero blanco, permitiendo la irrupción de materia en un surtidor gravitatorio, inverso del colapso. Queda todavía la cuestión de las hojas simétricas —derecha e izquierda— del universo exterior. Basta con mirar la carta de Kruskal para comprender que es imposible pasar de una hoja del universo exterior a la otra sin encontrarse con la singularidad. La garganta de Schwarzschild, estrangulada en su mitad por el campo gravitatorio infinito de la singularidad, definitivamente no deja pasar nada. Los agujeros blancos primordiales El mayor encanto de una teoría es el de ser refutable. F. Nietzsche, Más allá del bien y del mal

El lector que se apasionó con las aventuras de Alicia en el País de las Maravillas empezará ahora a sentirse frustrado. Los juegos de cartas del agujero negro de Schwarzschild le sitúan frente al espejismo de «otro lado» del Universo, cuya exploración es tentadora, pero, perversamente, una singularidad impide el paso. Aceptémoslo de buen grado. En la vida, a menudo, nos consolamos de que ciertas cosas no llegan a sucedemos, convenciéndonos de que después de todo, no pueden suceder. Este razonamiento tiene plena justificación en el caso del agujero blanco y del anti-Universo. Nos vamos a dar cuenta examinando el territorio —el mundo real— y no la carta. El mundo real es demasiado complicado. Todo lo que pueda hacer el físico para interpretar los fenómenos observados, es desarrollar modelos matemáticos que son sólo imágenes idealizadas de lo que sucede realmente. Tomemos la carta de Kruskal. Es una herramienta extraordinariamente potente para la investigación del espacio-tiempo del agujero negro, pero una manifiesta idealización: supone que la fuente gravitatoria está concentrada en una singularidad puntual, rodeada de vacío, oculta detrás de un horizonte de sucesos y existiendo desde siempre. Ahora bien, en el Universo real, ¿cómo puede formarse un

agujero negro? Es muy verosímil que sea por colapso gravitatorio... Y en ese caso, la situación dista de ser tan simétrica como sugiere la carta completa de Kruskal. Volvamos un momento a la superficie de inmersión alrededor de una estrella no colapsada, dibujada en la figura 39. Recuérdese que únicamente el espacio-tiempo exterior viene representado por un trozo de la geometría de Schwarzschild, el resto —es decir el interior de la estrella— es descrito por una geometría completamente diferente, que depende de la estructura de la materia y no contiene ninguna singularidad. Esto deja sospechar que, si la estrella se colapsa en agujero negro, únicamente la historia futura tendrá un sentido físico: formación de un horizonte futuro, con posterior aparición de una singularidad futura. Juegos Cuando se produce el colapso, las configuraciones de la estrella del espacio-tiempo exterior cambian en cada instante. Para describir una geometría que evoluciona, es necesario reintroducir el tiempo en el juego de la inmersión. Esto es lo que se hace en la figura 46, nuevamente establece un paralelismo entre la secuencia evolutiva de las superficies de inmersión y el diagrama de espacio-tiempo completo mostrado ya en la figura 27. El «tejido elástico» del espacio-tiempo es ciertamente cada vez más hundido por la estrella en contracción, pero cuando se forma el agujero negro el tejido no desarrolla ninguna garganta de Schwarzschild que desemboque en un universo paralelo. Desarrolla más bien una especie de punto anguloso en el que toda la estrella desaparece... Una vez más, el juego de la inmersión es incapaz de representar las regiones de espaciotiempo interiores al horizonte. Para ver mas lejos, es preciso volver al juego de Kurskal. La figura 47 es la carta de Kruskal truncada correspondiente al hundimiento de una estrella esférica. Tanto el horizonte como la singularidad del pasado han desaparecido completamente, así como la hoja simétrica del universo exterior. Únicamente subsisten un trozo de la geometría de Schwarzschild en el exterior del horizonte, un agujero negro y una singularidad en el futuro. La doble naturaleza del espacio-tiempo del agujero negro esférico sólo es en definitiva una curiosidad matemática, debida a la simetría idealizada de la solución completa de Schwarzschild. Los agujeros blancos, agujeros de gusano y universos paralelos no pueden formarse en el Universo real por colapso gravitatorio de estrellas esféricas.

El lector se preguntará por qué he desarrollado este tema con tanta extensión. La respuesta es doble. Primero, las estrellas no son realmente esféricas, y veremos más adelante cómo

los agujeros negros en rotación desarrollan multitud de agujeros de gusano que la física no ha logrado obstruir. Por otra parte, no está del todo excluido que ciertos agujeros negros no hayan nacido por colapso gravitatorio, sino que existen desde el principio del Universo, estando de alguna manera inscritos en sus «condiciones iniciales». Es cierto, que a los físicos no les gustan las condiciones iniciales muy particulares. Al contrario que al arzobispo Ussher, que en 1658 sostenía que el Universo había nacido «tal cual», con hombres, animales, plantas y fósiles a las 6 de la mañana del 23 de octubre del año 4004 a. C., los físicos modernos prefieren considerar un Universo nacido del caos, a partir de condiciones arbitrarias, apareciendo las estructuras materiales más tarde en el curso de la evolución. Este tipo de argumento reposa en un «principio de simplicidad», llamado también la Navaja de Occam, como homenaje a un teólogo inglés del siglo XIV que lo formuló simbólicamente. Estipula que, dado un conjunto de teorías que explican el mismo número de hechos, la teoría preferible es la que necesita un número mínimo de hipótesis. Pero si el principio de simplicidad es atractivo desde el punto de vista estético, en ningún modo ha sido probado. la tesis de agujeros negros «preexistentes» no es por el momento refutable. En este caso, y sólo en este caso, tales agujeros negros podrían estar acompañados de su agujero blanco simétrico. ¿Cuál sería la apariencia de un agujero blanco primordial? La radiación surgida del agujero blanco vendría afectada por dos desplazamientos antagónicos: un desplazamiento «Einstein» hacia el rojo (disminución de la frecuencia), debido al hecho de que la radiación saldría de un campo gravitatorio fuerte, y un desplazamiento «Doppler» hacia el azul (aumento de la frecuencia), debido al movimiento de expansión de la materia fuera del agujero en la dirección del observador. Algunos astrofísicos han imaginado al principio de los años 1960 un curioso modelo de quásars, estos astros extremadamente luminosos y lejanos cuya naturaleza permanecía misteriosa en esa época, y que han sido identificados más tarde con núcleos de galaxias muy brillantes. Avanzaron la idea de que los quásars podían ser agujeros blancos, lugares de creación espontánea de materia en ligero retraso respecto al «Big Bang», del que nuestro Universo habría surgido hace quince mil millones de años. Aparte de la objeción a las condiciones iniciales demasiado particulares, este modelo adolece de un gran defecto: si hubiera materia eyectada procedente de un agujero blanco, a partir del momento en que entrase en colisión con la materia ambiente, sería frenada de tal manera, ¡que se hundiría enseguida para formar un agujero negro! Como se verá en la última parte del libro, el modelo de quásar admitido en la actualidad no deja de ser menos fascinante. Se habla de un agujero, ¡pero negro, y gigante!

El juego del Penrose

¡Un niño de cinco años lo comprendería! ¡Id a buscarme un niño de cinco años! Groucho Marx

La explotación de los agujeros negros dista de haberse terminado. Los agujeros negros reales están en rotación, y recuérdese que su estructura interna es mucho más rica que la del agujero negro estático de Schwarzschild. Para «descodificarla» mejor, vamos a interesarnos por un último juego de cartas, el más perfeccionado de todos. Inventado por el matemático inglés Roger Penrose, de la universidad de Oxford, ha sido aplicado a la descripción completa de los agujeros negros por Brandon Carter, del Observatorio de Meudon.

La puerta estrella El juego de cartas de Penrose nos revela toda su fuerza cuando se le aplica al espaciotiempo de Kerr, generado por un agujero negro en rotación. El diagrama obtenido es sorprendentemente más variado que el del agujero negro estático (Figura 50). Está constituido por bloques que se repiten indefinidamente del pasado al futuro poniendo en evidencia una infinidad de universos exteriores al agujero negro y una infinidad de universos interiores*. Los universos exteriores están bordeados por el infinito espacial v el horizonte de sucesos. Los universos interiores, que contienen cada uno una singularidad, se subdividen en vanas regiones. El agujero negro en rotación posee en efecto un horizonte de sucesos interno que envuelve a la singularidad central. Cada vez que se franquea un horizonte se intercambiarán las direcciones del espacio y el tiempo. Para viajar del universo exterior a la singularidad, un astronauta debe experimentar dos cambios consecutivos. Consiguientemente, en el interior del horizonte de sucesos interno, muy cerca de la singularidad, las direcciones de espacio y de tiempo son exactamente las mismas que en el exterior del agujero negro. Esta es la razón por la que la singularidad no es horizontal sino vertical. A decir verdad no es ni siquiera ya un borde del espacio-tiempo. Existe una región situada al otro lado de la singularidad. Es fácil entender por qué, si se recuerda que la singularidad no se reduce al punto central r = O como es el caso para un agujero negro estático, sino que toma la forma de un anillo que yace en el plano ecuatorial del agujero negro 6. Este anillo no detiene el espacio-tiempo puesto que ¡se puede pasar a su través! La singularidad anular del agujero negro en rotación no tiene pues el carácter inexorable de la singularidad puntual. No es pues una irregularidad en el tiempo sino en el espacio, puesto que no significa ya el fin del tiempo para los exploradores del agujero negro 7. Aparte del peligro de las fuerzas de marea, pueden rozarla tan de cerca como quieran sin tocarla, y pueden incluso verla si salen señales luminosas de ella. En cuanto al «otro lado» de la singularidad, es un trozo de espacio-tiempo espacialmente infinito, en el que las distancias son «negativas». Este aparente absurdo se interpreta como una inversión del carácter atractivo de la gravitación. Esta se haría repulsiva, obligando así a la materia a alejarse infinitamente de la singularidad. La riqueza estructural del agujero negro en rotación abre perspectivas de exploración apasionantes. En la Figura 50, la trayectoria A indica la posibilidad de explorar el universo de antigravedad situado al otro lado de la singularidad. Las trayectorias B y C prueban que es teóricamente posible penetrar en el interior del agujero negro —preferiblemente si posee una masa suficiente, para no ser despedazado por las fuerzas de marea—, sobrevolar el anillo singular volver a salir del agujero para desembocar en otros universos exteriores. Por fin, la trayectoria D está prohibida pues sale del cono de luz... ¡Existe al menos una hoja del espacio-tiempo que no puede explorarse! ;

La máquina de remontar el tiempo El sentido común, haga lo que haga, no puede dejar de sorprenderse a veces. El fin de la ciencia es evitarle esta sorpresa. Bertrand Russell

El juego de Penrose empieza a ser inquietante para la salud mental cuando se interpretan los universos exteriores como hojas de un solo y único universo, lo que es permitido perfectamente por la teoría de la Relatividad General. En este caso, el agujero negro en rotación conectaría a través de una miríada de agujeros de gusano diferentes lugares del espacio-tiempo. Y como dos sucesos del espacio-tiempo pueden diferir tanto en el espacio como en el tiempo, sería posible en principio, partiendo de una posición dada y de un tiempo dado en el universo exterior al agujero negro y tomando un agujero de gusano juiciosamente elegido, reemerger en la misma, posición pero en un tiempo diferente, pasado o futuro. A esto se le llama una ¡máquina de viajar a través del tiempo! Ciertamente, la historia de las ciencias ha probado muchas veces que especulaciones consideradas absurdas para su tiempo se han r< velado después plenamente justificadas. Sin embargo, el viaje en pasado plantea un desafío al sentido común. Es difícil admitir que; un individuo pueda remontarse en el tiempo para asesinar a su abuelo antes incluso de que éste haya tenido tiempo de tener hijos. Pues entonces el asesino no habría sido concebido, y si no ha sido concebido no puede ir a asesinar a su abuelo, que ha podido tener hijos» pero si el abuelo ha tenido hijos, ha podido ser asesinado por su descendiente, y así sucesivamente... Esta paradoja temporal fue introducida en la literatura por el novelista francés Rene Barjavel, en un relato titulado El viajero imprudente. El viaje en el pasado viola la ley de causalidad, que exige que toda causa preceda al efecto 8 . Pero la causalidad es una regla impuesta por la lógica, y no por la teoría de la Relatividad. Es cierto que en la Relatividad Restringida y su universo plano, sin gravitación, la causalidad está implícita. Pues viajar a su pasado equivale estrictamente a desplazarse más rápido que la luz, lo que esta esencialmente prohibido. Por el contrarío, en la Relatividad General y sus universos curvados por la gravitación, ciertas distorsiones sutiles del espaciotiempo —en particular las causadas por un agujero negro en rotación— ¡permiten la exploración del pasado sin sobrepasar nunca la velocidad de la luz! Esta insensata situación no puede siquiera ser evitada arguyendo el hecho que estas distorsiones sólo representan un artificio matemático y no se producen verdaderamente

durante la formación de un agujero negro por hundimiento gravitatorio de una estrella en rotación. En el caso esférico, era posible seguir paso a paso la evolución de la geometría exterior e interior de una estrella en contracción, utilizando una carta de Kruskal truncada o una sucesión de diagramas de inmersión, para darse cuenta de que los fenómenos desconcertantes de agujero blanco y de anti-Universo se eliminaban de manera natural. Pero en el caso no esférico no se sabe cartografiar de manera rigurosa el espacio-tiempo exterior —ni interior— de la estrella en rotación. Las ondas gravitatorias la perturban de manera permanente, instaurándose la geometría de Kerr sólo cuando se ha formado el agujero negro. No se puede pues afirmar que la carta de Penrose no describe la situación real. ¿Significa eso que debe abandonarse la teoría de los agujeros negros, o incluso la Relatividad General, que ha dado por otra parte pruebas de su validez 9? Probablemente no. La posible violación de la causalidad no pone en peligro la misma existencia de los agujeros negros, sino que fuerza más bien a interrogarse sobre la naturaleza real de la singularidad y la estructura «fina» del espacio-tiempo. Se Mega aquí a las fronteras de la física contemporánea. Ver p. 39. Ver p. 67.

Las singularidades gravitatorias Es posible, en primer lugar, preguntarse si la aparición de una singularidad que aplasta indefinidamente la materia y el espacio-tiempo en el centro de los agujeros negros no es el resultado de aplicar ingenuamente la Relatividad General al colapso gravitatorio. Aparecen singularidades también en el contexto más general de la Cosmología, rama de la astrofísica que trata de la evolución del Universo en su conjunto. La teoría del «Big Bang», según la cual el Universo habría nacido de una singularidad hace quince mil millones de años aproximadamente, está fuertemente corroborada por la observación de la expansión del Universo y la de la radiación cosmológica, vestigio enfriado de su nacimiento. Pero en Cosmología, como en otros campos, los modelos utilizados para describir el estado presente y pasado del Universo se encuentran muy idealizados. Aquí también es legítimo preguntarse si la singularidad cósmica no es un subproducto no deseable de la simplificación matemática. Dos investigadores ingleses, Stephen Hawking, de la universidad de Cambridge, y Roger Penrose, el inventor de las cartas conformes, demostraron en los años 1960 que no es así. Las singularidades forman parte integrante de la teoría de la Relatividad General. Quizás no se sepa demostrar que el hundimiento gravitatorio de una estrella «realista» forma un horizonte de sucesos y un agujero negro, pero puede probarse que termina inexorablemente en una singularidad. Hawking y Penrose han establecido igualmente que si se extrapola hacia el pasado cósmico cualquier modelo de Universo acorde con las observaciones actuales, debe forzosamente haber empezado en una singularidad. Si el Universo contiene suficiente materia, tiene incluso que acabarse en una singularidad, siguiendo a la fase de expansión actual una fase simétrica de contracción, verdadero colapso gravitatorio universal. Estos teoremas muy importantes generalizan un resultado que ya se conoce en la teoría newtoniana de la gravitación: una nube de polvo sometida a las fuerzas de atracción gravitatoria mutua de sus constituyentes se contrae hasta formar una singularidad de densidad infinita. En conclusión, las singularidades resultan ser una consecuencia inevitable

de la propiedad atractiva y «auto acelerada» de la gravitación. ¿Cómo afrontarlo? Censura Cósmica A la Naturaleza le gusta ocultarse. Heráclito, 500 a. C.

El colapso gravitatorio de una estrella que termina en una singularidad admite dos variantes según que se forme o no un agujero negro. Si se forma un agujero negro, ello significa que hay un horizonte de sucesos que oculta todo lo que está más allá, incluyendo en ello el colapso final de la materia en una singularidad. Esta posibilidad parece realizada en el colapso esférico. En este caso, poco le importa al físico que vive en el espacio-tiempo externo al agujero negro saber si la singularidad realmente se forma o no. Puesto que el interior del agujero negro no se comunica con el exterior, las leyes de la Naturaleza y el sentido común podrían violarse cerca de la singularidad sin que el mundo de los físicos jamás supiese nada de ello. En la segunda variante, se forma la singularidad sin que exista un agujero negro que la oculte. Imaginemos por ejemplo que una estrella masiva en rotación rápida conserva durante su hundimiento un momento angular superior al valor crítico. En este caso, la formación de un horizonte estable de agujero negro se hace imposible por las fuerzas centrífugas, y la singularidad quedará desnuda. Podrían escaparse de ella partículas o señales electromagnéticas que fuesen observadas a gran distancia. Ahora bien, una singularidad tiene efectos totalmente imprevisibles sobre el espacio-tiempo debido a los infinitos asociadas a ella. Sin la protección de un horizonte de sucesos a los físicos sólo les quedaría ir al paro, ¡pues cualquier cálculo y cualquier predicción podrían ser contradichos, de un día para otro, por la fantasía de una singularidad al desnudo! Es inútil precisar que las singularidades al desnudo nunca han sido observadas en el Universo. Sin embargo esto no prueba su inexistencia. Para evitar una situación tan embarazosa, Roger Penrose ha emitido la hipótesis según la cual la Naturaleza prohibiría la existencia de singularidades al desnudo. Según él, el colapso gravitatorio arroparía siempre a la singularidad con un horizonte de sucesos. Esta conjetura tiene el nombre de Censura Cósmica. La Censura Cósmica, considerada tranquilizante, no ha podido nunca demostrarse rigurosamente en el marco de la Relatividad General. En general se estima que la conjetura es correcta para situaciones que no se apartan en exceso de la simetría esférica. Por el contrario, en las situaciones más extremas esta cuestión permanece completamente abierta. Otro motivo de inquietud: la singularidad cósmica, que se supone ha generado nuestro Universo hace quince mil millones de años, no está oculta en el fondo de un agujero negro. La gravitación cuántica ¡Si el Todopoderoso me hubiese consultado antes de embarcarse en la Creación del Mundo, le hubiese recomendado algo más simple! Alfonso X el Sabio, siglo XIII

Incluso si la conjetura de la Censura Cósmica fuera rigurosa, las «anomalías» de la gravitación no por ello habrían sido resueltas. La singularidad anular, aunque oculta en el fondo de un agujero negro en rotación, permite incluso el paso por el agujero de gusano e i

¡implícitamente se hace cómplice de la violación de la causalidad! El verdadero problema no consiste en saber si las singularidades I ofenden el pudor o no, sino en saber si existen en el Universo real. Para esto, es preciso remontarse hasta la fuente del mal: la Relatividad General. ¿Acaso una teoría que predice configuraciones en las que ciertas cantidades físicas se hacen infinitas puede ser correcta? i La Ciencia ha dado a luz muchas veces a teorías físicas con singularidades, que han sido eliminadas con la puesta a punto de teorías mejores. Un caso notable fue el modelo primitivo del átomo, considerado como un minúsculo sistema planetario movido por fuerzas | eléctricas. En la teoría desarrollada a principio de siglo por Ernest Rutherford, los electrones que estaban en órbita alrededor del núcleo atómico tenían que perder energía y caer rápidamente hacia el núcleo. Ahora bien, la naturaleza prueba que los átomos son estables. El comportamiento anormal del átomo de Rutherford indicaba pues que su teoría era incompleta. La elaboración de la Física Cuántica ha resuelto el problema En esta nueva teoría, los niveles del energía de los electrones se han cuantificado, el modelo de átomo; se ha estabilizado y la singularidad ha desaparecido. Es tentador hacer la comparación con la Relatividad General. La irrupción de singularidades gravitatorias demostrada por Hawking y Penrose hace verosímil pensar que la teoría está aplicada fuera de su dominio de validez. ¿Puede la Física Cuántica remediarlo? Un primer elemento de respuesta viene sugerido por un examen en profundidad de los teoremas de Hawking y Penrose. Su conclusión depende de una hipótesis en apariencia razonable según la cual «1a materia tiene una energía positiva». Esta condición es verificada efecto por todas las formas conocidas de materia, entre las que se encuentran las formas extremas de materia degenerada que reman en el corazón de las estrellas de neutrones que, aunque desconocidas en el laboratorio, pueden extrapolarse a partir de los conocimientos sobre la materia nuclear. Pero, si toda materia «clásica» tiene una energía positiva, no sucede lo mismo con la materia cuántica. Hay cálculos recientes que demuestran que ciertos fenómenos de la física de partículas elementales violan la condición de positividad de la energía 10. Se llega al nudo del problema. Aunque la Relatividad General sea la mejor teoría actual de la gravitación, es manifiestamente incompleta pues no tiene en cuenta los principios de la Mecánica Cuántica, que gobierna la evolución del mundo microscópico. Ahora bien, en el fenómeno de las singularidades está implicado precisamente el espacio-tiempo a muy pequeña escala. Así pues casi no sorprende que la aplicación de una teoría «clásica» a un dominio cuántico conduzca a singularidades no deseables. Las relaciones actuales entre la Mecánica Cuántica y la Relatividad General son más bien distantes. La primera gobierna el dominio de las partículas elementales, que se mueven bajo la acción de fuerzas nucleares cuyo radio de acción es muy pequeño. Su característica esencial es dar una descripción «desenfocada» de los fenómenos, en la medida que los sucesos no pueden calcularse más que en términos probabilísticos. La fuerza electromagnética gobierna un dominio de transición que abarca en particular la escala humana. En ciertos fenómenos (láseres, transistores, etc.), la Mecánica Cuántica representa todavía un papel crucial, pero en otros (propagación de las ondas radio, etc.) su papel es despreciable. En fin, a escala astronómica, los efectos cuánticos se esfuman totalmente y la gravitación «clásica» descrita por la Relatividad General, es quien domina. POR ejemplo, la creación espontánea de partículas en el vacío, que la Mecánica cuántica hace posible; ver capítulo

14.

Ahora bien, para retomar los términos de Sheldon Glashow n podría suceder que «la serpiente se muerda la cola». Ciertos físicos creen en efecto que la gravitación vuelve a ser dominante en escalas de tamaño menor que 10~33 cm. Esta longitud ínfima se introdujo en otro contexto, hará pronto un siglo, por Max Planck. Obtenida combinando astutamente las constantes fundamentales de la Naturaleza (constante de la gravitación, velocidad de la luz, constante de Planck), es independiente de las propiedades de las partículas elementales. Debe representar la menor escala en la cual el espacio-tiempo puede ser considerado todavía como liso. Por debajo, la misma textura del espacio-tiempo no sería ya continua sino que, al igual que la materia y la energía estaría formada por pequeños granos. Según la fórmula de John Wheeler, es en su dominio donde se consumaría «el ardiente acoplamiento de la Relatividad General y de la Física Cuántica». Al niño se le llamaría naturalmente la Gravitación Cuántica. Si se habla utilizando el futuro, es porque la Gravitación Cuántica es todavía más una idea que una teoría. Durante los cuarenta últimos años de su vida, Einstein trató en vano de armonizar la Relatividad General y la Mecánica Cuántica. Hoy, a centenares de físicos teóricos se vuelcan en esta tarea, pero su amplitud es considerable. Aparte de dificultades matemáticas desalentadoras, la Gravitación Cuántica se enfrenta a la total ausencia de datos experimentales concretos. Su dominio de aplicación —en distancias o en energías— está fantásticamente alejado de la física de laboratorio. Si es posible explorar, gracias a los grandes aceleradores de partículas, distancias comparables al radio de una partícula elemental tal como el protón, es decir 10~13 cm 12, el foso que nos separa todavía del espacio-tiempo cuántico es inmenso: la relación entre el radio del protón y la longitud de Planck es del mismo tamaño que ¡la relación entre la talla de nuestra galaxia y al ser humano! Lo divertido de la física contemporánea es que, a pesar de estas condiciones poco favorables, las ideas abundan. John Wheeler considera por su parte que la geometría del espacio-tiempo microscópico debe ser turbulenta y en perpetuo cambio, agitada por fluctuaciones cuánticas. Se la puede comparar a la superficie de un océano (Figura 51). Visto desde un avión el océano parece liso. A más baja altura, la superficie permanece continua pero se empieza a percibir algunos movimientos que la agitan. Examinado más de cerca, el océano es muy tumultuoso, discontinuo incluso porque las olas se rompen, proyectando gotas de agua que se elevan y vuelven a caer. Déla misma manera, si el espacio-tiempo parece continuo a nuestra escala, su espuma se haría perceptible a escala de la longitud de Planck y produciría gotas que se nos manifiestan bajo la forma de partículas elementales. Las tentativas más recientes han buscado ayuda en un «súper-espacio-tiempo» cuyo número de dimensiones sería superior a cuatro '3. En la vida diana, sólo las tres dimensiones del espacio y la dimensión del tiempo son perceptibles, pero el Universo real podría cerrarse sobre sí mismo en dimensiones espaciales suplementarias, cuya longitud característica sería justamente la longitud de Planck. Una ilustración simple es un tubo muy largo, que tiene dos dimensiones: una débilmente curvada en sentido de la longitud, la otra fuertemente curvada y mucho más pequeña en el sentido de la circunferencia. Ahora bien, visto de lejos, el tubo es percibido como un hilo con una sola dimensión y sin curvatura. No había ningún esquema claro. A falta de verificaciones experimentales, los físicos se agarran a las exigencias teóricas. Una de ellas es precisamente la eliminación pura y simple

de las singularidades gravita-tonas. Estas serían reemplazadas por fluctuaciones cuánticas del espacio-tiempo, que no darían lugar a valores infinitos pero tendrían por efecto taponar los agujeros de gusano de los agujeros negros en rotación. ¡EA causalidad sería salvaguardada a este precio! Lo que parece claro es que los agujeros negros están llamados a representar un papel en la elaboración de la Gravitación Cuántica. Nacidos hace dos siglos entre la indiferencia general y llegados hoy solamente a la edad de la razón, su carrera no ha hecho más que empezar. Los dos capítulos siguientes muestran de manera más detallada cómo los agujeros negros tejen una profunda ligazón entre dominios de la física aparentemente disjuntos. 11

Premio Nobel de Física en 1979. Las mayores energías obtenidas en la actualidad en los aceleradores de partículas permiten sondear las propiedades de la materia hasta 10~18 cm. 12

EL AGUJERO NEGRO MÁQUINA La termodinámica Los físicos han tratado siempre de entender por qué el Universo no es caótico sino ordenado. De las galaxias lejanas a la célula viviente, el Universo desarrolla en todas las escalas estructuras complejas. La diversidad y la complejidad de los sistemas organizados son tan grandes que puede parecer presuntuoso tratar de entender los principios generales que gobiernan la organización de sistemas tan diferentes como un hombre y una estrella. Sin embargo éste es el fin alcanzado por la termodinámica. Esta disciplina nació en el siglo XIX. Su intención primitiva era bastante prosaica; para los ingenieros y los industriales se trataba de aprender a controlar los cambios de calor y de energía mecánica en las máquinas de vapor, con el fin de optimizar su rendimiento. De esta inversión tan limitada han emergido conceptos profundos y universales, susceptibles de aplicarse a la evolución de la mayoría de los sistemas físicos’. " ¡Podría incluso ocurrir que la verdadera dimensión del «súper-espacio-tiempo fuese «fractal», es decir, intermedia entre dos números enteros! La aplicación estricta de la termodinámica al mundo «viviente» plantea dificultades.

La fuerza de la termodinámica proviene quizás de que establece leyes muy generales que no dependen de la estructura detallada de los sistemas. Permite por ejemplo comprender las propiedades terminas de los materiales sin conocer su estructura atómica. La termodinámica se resume por completo en cuatro leyes, numeradas de O a 3 por razones históricas. La ley núm. O establece que todas las partes de un sistema en equilibrio térmico tienen la misma temperatura. La ley núm. 1 establece que el calor es una forma de energía, y describe cómo se intercambian las diferentes formas de energía en un sistema que evoluciona. Si se ponen en contacto dos sistemas a temperaturas diferentes —por ejemplo un litro de agua caliente y un litro de agua fría—, se producen intercambios de energía entre los dos sistemas hasta que se alcanza una temperatura de equilibrio, intermedia entre las precedentes —2 1 de agua tibia. La Ley núm. 3 establece la inaccesibilidad del cero absoluto (—273,15° C). Se puede ciertamente disminuir la temperatura de un sistema mediante transformaciones apropiadas, pero es imposible enfriarlo completamente mediante una sucesión finita de transformaciones 2. La ley núm. 2 es de alguna manera el símbolo de la termodinámica, pues es la que tiene un alcance más universal. En términos simples, establece que los sistemas se hacen cada vez más desordenados durante su evolución. Las montañas están sometidas a erosión, las casas se hunden, los automóviles se estropean, las estrellas explotan, los hombres envejecen y mueren. Es cierto que se forman sin cesar estructuras más ordenadas: nacimientos, crecimiento de cristales, construcción de ciudades, etc. Pero la aparición de orden en un sistema debe pagarse con el aumento de desorden en un sistema más vasto. Los físicos han inventado una cantidad matemática para medir el desorden: la entropía. La formulación precisa de la 2." ley de la termodinámica dice que la entropía de un sistema aislado no puede más que aumentar en el curso del tiempo. La entropía tiene una interpretación bien concreta: mide el desorden. Veamos por qué.

Matemáticamente, la entropía se calcula evaluando el número total de configuraciones internas que un sistema puede adoptar sin cambiar su apariencia externa. Por ejemplo, el estado externo de un gas viene fijado por su temperatura y su presión; ahora bien, hay un gran número de movimientos caóticos cosibles de las moléculas del gas, que corresponden todos a la misma temperatura y a la misma presión. Es este número, muy grande, el que fija la entropía del gas. De la misma manera, el estado «macroscópico» de un trozo de azúcar viene determinado por algunas magnitudes globales como la composición química, la temperatura o el volumen, pero a este mismo estado corresponden un gran número de estados microscópicos ocultos, que dependen en particular de la estructura molecular, de las vibraciones internas, etc. Al medir el número de configuraciones internas ocultas, la entropía de un sistema mide pues nuestra ignorancia sobre los detalles del sistema. Cuanto más organizado esté un sistema, su entropía será más débil, y viceversa. La entropía mide por lo tanto el desorden. La noción de entropía se puede hacer todavía más universal ligándola a la noción de información. Está claro que las configuraciones microscópicas de un sistema contienen información oculta sobre el mismo. Cuanto más numerosas son las informaciones ocultas, mayor es la entropía, y correlativamente las informaciones de que se dispone son más reducidas. Un sistema muy ordenado es un sistema que hace disponible un gran número de informaciones. Tiene pues una débil entropía. Ordenando las letras de este libro, comunico mucha información a mis lectores ¡ése es en todo caso mi objetivo! Si de repente me divirtiese disponiendo las letras al azar, el contenido informativo del libro sería prácticamente nulo, aparte el hecho de que existe un autor. En otros términos, la entropía mide la falta de informaciones sobre un sistema. 2

Actualmente se es capaz de enfriar en el laboratorio el helio 3 a 0,001° K.

La dinámica de los agujeros negros El agujero negro no es un cuerpo pasivo, que oculte celosamente una masa destinada a permanecer inerte para siempre. Gracias a su carga eléctrica, y sobre todo a su momento angular, el agujero negro es un sistema dinámico, capaz de experimentar o de ejercer fuerzas, absorber o proporcionar energía, en breve, capaz de transformarse en el curso del tiempo. Es pues importante buscar las leyes que gobiernan la evolución de los agujeros negros, y compararlas a las leyes de la termodinámica. En la termodinámica habitual, el estado de un sistema puede ser caracterizado generalmente por dos magnitudes fundamentales: su temperatura y su entropía. Las leyes de la termodinámica dictan precisamente cómo varían otras magnitudes macroscópicas tales como la energía, el volumen o la presión, en función de la temperatura y de la entropía durante una transformación del sistema. De la misma manera, el estado dinámico de un agujero negro se caracteriza por dos magnitudes: el área del agujero negro, que mide la superficie del horizonte de sucesos, y la gravedad de superficie, que mide la aceleración de la gravedad en el horizonte. Como el estado de un agujero negro en equilibrio no depende más que de tres parámetros —masa, momento angular y carga—, el área y la gravedad de superficie del agujero negro se expresan igualmente en función de estos parámetros. Para el agujero negro estático de Schwarzschild, caracterizado únicamente por su masa, estas relaciones son particularmente simples. El horizonte de sucesos es una esfera cuyo radio es proporcional a la masa del agujero negro (r = 2 M); su área es pues proporcional al cuadrado de su masa. Un agujero

negro esférico de 10 M☼ tiene un área de 5.650 km2, comparable a la de una provincia francesa. De la misma manera, la gravedad de superficie es inversamente proporcional a la masa. Un agujero negro esférico de 10 M☼ tiene una gravedad de superficie ciento cincuenta millones de veces mayor que la aceleración de la gravedad en la superficie de nuestro planeta. La dinámica de los agujeros negros se resume en cuatro leyes, que presentan una analogía sorprendente con las de la termodinámica habitual. La ley núm. O dice que todos los puntos del horizonte de sucesos de un agujero negro en equilibrio tienen la misma gravedad de superficie. Es ésta una propiedad a priori sorprendente si uno cree que los agujeros negros en rotación están aplanados por los polos debido a las fuerzas centrífugas. Ahora bien, para los astros ordinarios en rotación, como la Tierra, se sabe que el peso es mayor en los polos que en el Ecuador. Al contrario, en el horizonte de sucesos de un agujero negro, esté como esté de aplanado, no hay ninguna variación del peso. La ley núm. 1 dicta cómo varía, en toda transformación de un agujero negro (que resulte por ejemplo de la captura de una nube de partículas o de un asteroide) su masa, su velocidad de rotación y su momento angular en función de su área y de su gravedad de superficie. La Ley núm. 3 dice que es imposible anular la gravedad de superficie de un agujero negro en un número finito de transformaciones. Un ejemplo de estado de agujero negro cuya gravedad de superficie es estrictamente nula es el del agujero negro de Kerr «maximal», cuyo momento angular alcanza el valor crítico. La 3." ley precisa que el agujero negro maximal es un estado límite que no puede llegar a ser realizado en la Naturaleza. Partiendo de un agujero negro en rotación lenta, sería ciertamente posible aumentar su momento angular haciendo caer dentro trozos de materia según órbitas apropiadas, pero el estado maximal seguiría siendo inaccesible. En fin, la ley núm. 2 de la dinámica de los agujeros negros prueba que el área de un agujero negro no puede nunca decrecer en el transcurso del tiempo. Si un agujero negro estrictamente aislado mantiene una entropía constante, a partir del momento que la materia o la radiación son capturadas, el agujero negro aumenta su superficie. Por lo mismo, si dos agujeros negros entran en colisión, forman necesariamente un agujero negro único cuya área es más grande que la suma de las áreas de los agujeros negros de los que procede (Figura 52).

Este resultado fundamental, descubierto por Stephen Hawking, muestra la estrecha conexión entre el área de un agujero negro y la entropía de un sistema termodinámico. ¿Acaso se puede llevar más lejos la analogía y decir que un agujero negro posee realmente una entropía? El físico israelita Jacob Bekenstein ha respondido afirmativamente. El agujero negro es una prisión cósmica que impide escaparse a toda partícula y a toda radiación, y por tanto a toda información. Por otra parte, cuando un cuerpo material desaparece en un agujero negro, todo conocimiento de sus propiedades internas se pierde para el observador exterior;

únicamente subsisten los nuevos valores de la masa, del momento angular y de la carga del agujero negro. Por consiguiente, el agujero negro traga las informaciones. Debe tener una entropía. Como en termodinámica, ésta debe medirse por el número total de configuraciones posibles internas que corresponden a un estado dado, definido por los tres parámetros del agujero negro. El cálculo da un resultado efectivamente proporcional al área del agujero negro. La entropía de un agujero negro de una masa solar es mil millones de veces superior a la del Sol. La diferencia se explica por el hecho de que, cuando se forma el agujero negro «pierde el pelo», es decir, traga toda información sobre la materia aparte de la masa, la carga y el momento angular. Esta es la razón por la cual los agujeros negros constituyen los mayores depósitos de entropía del Universo.

El agujero negro, fuente de energía La primera ley de la dinámica de los agujeros negros dice que, aunque un agujero negro no deja escapar ninguna radiación o partícula, puede ceder energía al medio exterior. En efecto, la masa-energía total de un agujero negro se descompone en tres: una energía «rotacional» asociada al momento angular, una energía «eléctrica» asociada a la carga, y una energía de masa «inerte». El físico griego Demetrios Christodolou ha probado que los dos primeros tipos de energía pueden ser extraídos del agujero negro, pero que la energía de masa «inerte» es por el contrario irreducible. Esta energía irreducible está por otra parte ligada en forma directa al área del agujero negro, que según la segunda ley no puede disminuir nunca en el curso de una transformación 3. El agujero negro específico y neutro de Schwarzschild es el que minimiza su energía. Se contenta con ser un pozo de gravitación pasivo, que traga partículas y radiación y aumenta su masa en cada interacción. Inversamente, el agujero negro próximo del estado maximal va cargado de energía a tope, y no es por ello avaro. Su energía rotacional puede ser extraída y representa no menos del tercio de su energía total. Es potencialmente una suma de energía fabulosa, y comparada con la cual una explosión de supernova parece un petardo mojado. Sin embargo, la extracción de la energía de rotación de un agujero negro no presenta el carácter cataclísmico de la explosión de una estrella. Sólo puede ser realizada con parsimonia. Es la ergosfera del agujero negro, es decir la región comprendida entre el límite estático y el horizonte de sucesos, la que juega aquí un papel clave. Roger Penrose ha imaginado el mecanismo de extracción siguiente. Un experimentador muy alejado del agujero negro lanza un proyectil en dirección a la ergosfera. Allí, el proyectil se desintegra en dos partes: uno de los fragmentos es capturado por el agujero negro, mientras que el otro resurge de la ergosfera para ser recuperado por el experimentador (Figura 53). Penrose ha demostrado que el experimentador podría apuntar de tal forma que el fragmento que vuelve hacia él tuviera una energía superior a la del proyectil inicial. Esto es posible si el fragmento capturado por el agujero negro cae según una órbita retrógrada (es decir que gira en sentido contrario a la rotación del agujero negro), de manera que al penetrar en el agujero negro disminuya ligeramente su momento angular. El resultado neto de la operación es que el agujero negro pierde un poco de su energía de rotación, diferencia que es recuperada por el fragmento que se escapa hacia el infinito.

La entropía puede en el mejor de los casos permanecer constante en ciertas transformaciones reversibles.

Esta experiencia imaginaria abre perspectivas propias para hacer soñar a los escritores de ciencia-ficción. La Figura, 54 está inspirada en el libro de Charles Misner, Kip Thorne y John Wheeler 4 consagrado a la gravitación y que constituye una especie de «biblia» de la Relatividad General. La idea consiste en utilizar la ergosfera de un agujero negro en rotación para resolver los problemas energéticos de una civilización avanzada. Esta, construye una vasta estructura rígida rodeando el agujero negro, a distancia suficientemente grande para que las fuerzas de marea queden sin efecto. Una ciudad industrial se construye sobre esta estructura. Cada día, millones de toneladas de deshechos son recogidos en contenedores y encaminados hacia un pozo excavado en la estructura. Allí, los cubos son arrojaos unos tras otros en dirección del agujero negro. Cada cubo es arrastrado en espiral descendente. Cuando penetra en la ergosfera y alcanza un cierto «punto de eyección», un mecanismo automático desencadena su apertura y expulsa su contenido según una órbita retrógrada bien calculada. Los deshechos capturados disminuyen ligeramente la energía de

rotación del agujero negro. En contrapartida, el cubo vacío sale de la ergosfera con una energía aumentada. Finalmente se recupera en un rotor gigante, en el que el cubo deposita su energía cinética colosal. El rotor está ligado a un generador de corriente que alimenta la ciudad de electricidad. Por cada cubo recuperado, la ganancia neta de energía es igual a la masa-energía de los deshechos eyectados, más una fracción de la masa-energía del mismo agujero negro. Así pues, por este astuto mecanismo, los habitantes de la ciudad pueden no sólo convertir la totalidad de la masa de sus deshechos en energía eléctrica, sino igualmente una fracción de la masa-energía total del agujero negro. ¡Es el triunfo de la ecología! 4 Misner C.W., Thorne K. W. Wheeler J. A.: Gravitation, 1973, W. H. Freeman and Co. (San Francisco.

El agujero negro dínamo El interés del mecanismo de Penrose no es solamente anecdótico. La extracción de la energía rotacional de un agujero negro quizá es realizada en condiciones astrofísicas naturales, con la intervención de un campo magnético exterior dispuesto convenientemente. El astrofísico francés Thibaut Damour ha profundizado en la analogía entre la superficie de un agujero negro y una bola de jabón electrizada en movimiento. En particular, un agujero negro es un conductor de la electricidad, caracterizado por una cierta resistividad a la corriente. A este respecto, un agujero negro en rotación inmerso en un campo electromagnético exterior actúa como un verdadero motor electrodinámico, funcionando sobre el principio de la dínamo. Como en un gigantesco electro-imán, los fenómenos de inducción entre el rotor (el agujero negro) y el estator (el campo magnético exterior) crean sobre el horizonte del agujero negro corrientes eléctricas circulantes capaces de frenar su rotación y extraer una parte de su energía. Estas corrientes son pues análogas a las «corrientes de Foucault», utilizadas en la industria en los sistemas de frenado de ciertos vehículos pesados. Las condiciones favorables a la extracción de energía de un agujero negro por efecto dínamo las reúnen quizás ciertos núcleos de galaxias que abrigan agujeros negros gigantes (ver capítulo 17). El agujero negro láser Otra manera de extraer energía rotacional o eléctrica de un agujero negro ha sido propuesta en 1971 por el físico soviético Yacov Zeldovich. El mecanismo, bautizado como superradiancia, se funda en una analogía con un fenómeno bien conocido en Mecánica Cuántica: la emisión estimulada de partículas. En un átomo, los electrones ocupan órbitas cuyas energías están cuantificadas, es decir son múltiplos de una unidad fundamental. La energía de una órbita es tanto menor cuanto más profunda sea la órbita, es decir más «próxima» al núcleo. En un átomo en estado «normal», los electrones tienen tendencia a ocupar preferentemente las órbitas de baja energía. Esta es la razón por la cual un electrón que ocupe un nivel de energía elevado puede saltar espontáneamente a un nivel de energía menor, emitiendo un fotón —partícula asociada a

una onda electromagnética—, cuya frecuencia es igual a la diferencia entre los niveles de energía superior e inferior. Es la emisión espontánea. Inversamente, si se «ilumina» un átomo por una onda electromagnética de frecuencia conveniente, la onda induce transiciones electrónicas desde los niveles de baja energía hacia los niveles de alta energía. La onda es absorbida parcialmente por el átomo y vuelve a salir con una energía menor. Imaginemos ahora que en un átomo convenientemente preparado la mayoría de los electrones pueblan niveles de energía elevada; se dice que el átomo está en un estado excitado. En este caso, la onda electromagnética incidente no puede producir más que transiciones de arriba a abajo. Es la emisión estimulada, fenómeno distinto a la emisión espontánea e inverso de la absorción puesto que esta vez la onda es amplificada cuando se produce la interacción y gana energía. Sobre un mecanismo de este tipo, descubierto por Einstein en 1916, funciona el láser, una de las más hermosas realizaciones tecnológicas fundadas sobre las propiedades cuánticas de la materia y de la radiación. Un mecanismo muy semejante se produce con un agujero negro en rotación o cargado («agujero negro de Kerr-Newman»). Este último puede ser considerado en efecto como un «estado excitado» del agujero negro estático y neutro de Schwarzschild. Ya expliqué en el capítulo 10 cómo un agujero negro iluminado es capaz de absorber / reflejar parcialmente la luz incidente. Pero, cuando se toman en cuenta las propiedades discontinuas de la radiación, aparecen nuevos efectos que permiten entrever lazos entre la gravitación y la física cuántica. Si se envían sobre un agujero negro de Kerr-Newman ondas electromagnéticas o gravitatorias ajustando convenientemente frecuencia y su fase, las ondas reflejadas son amplificadas. Dicho otras palabras, el agujero negro cede energía a las ondas que le atraviesan. Este fenómeno de superradiancia, permite en principio extraer energía rotacional o eléctrica de un agujero negro. Prosigamos ahora la analogía entre un agujero negro manso y un átomo excitado. Puesto que un agujero negro permite emisión estimulada, debería también permitir la emisión espontánea de partículas. Como está (clásicamente) prohibido que una partícula salga del horizonte de sucesos, la creación espontánea de partículas debería suceder en el exterior del agujero negro. Esta intuición ha sido verificada por cálculos detallados de interacción entre un agujero negro, descrito por la Relatividad General, y la materia o la radiación, descritos por la Mecánica Cuántica La «desexcitación» del agujero negro se traduce efectivamente por; una neutralización de su carga en el proceso de emisión de partículas cuya carga sea del mismo signo, y una disminución de su rotación cuando se emiten partículas cuyo espín tiene el mismo momento angular del agujero negro. En principio, Pueden crearse toda clase de partículas (fotones, neutrinos, electrones, protones, etc.), pero cuanta mayor masa posee una partícula, menos posibilidades tiene de producirse. Los desarrollos de la termodinámica de los agujeros negros nOS; han conducido de esta forma a la frontera entre el mundo «clásico*' y el mundo «cuántico». En el camino, el agujero negro ha sido investido de nuevas propiedades que sobrepasan el papel de pozo gravitatorio singularmente pasivo al que parecía abocado. La llegada del agujero negro cuántico, en 1974, confirmará su color negro pero lo despojará de su último atributo clásico: el de agujero. Capítulo 14

EL AGUJERO NEGRO CUÁNTICO

Existe un momento en que la curiosidad se convierte en pecado, y el diablo siempre se ha puesto del lado de los sabios. Anatole France

El agujero negro que encoge En 1971, Stephen Hawking propuso la existencia de mini-agujeros negros. Según él, en los primeros instantes del Universo, mucho antes del nacimiento de las estrellas y de las galaxias, la presión y la energía del «baño cósmico» ambiente eran tan grandes que hubieran podido forzar a los pequeños grumos de materia a concentrarse en agujeros negros de tamaños y masas diversas l. En particular, se hubieran podido producir «desde el exterior» agujeros negros minúsculos, que tienen la masa de una montaña y el tamaño de una partícula elemental, mientras que los agujeros negros del universo actual no pueden formarse más que por colapso de grandes cantidades de materia. Hawking se interesó en seguida en las interacciones de los mini-agujeros negros con el medio exterior. Desde el momento en que as distancias puestas en juego son microscópicas, la materia y la energía deben describirse en el marco de la Mecánica Cuántica. Como ya se ha indicado anteriormente, todavía no se dispone de una teoría satisfactoria de la gravitación cuántica. Sin embargo, el campo gravitatorio, y con él el espacio-tiempo, no debe manifestarse realmente discontinuo más que en la escala de longitud de Planck, que es extraordinariamente menor que el radio de una partícula elemental o de un mini-agujero negro. Por consiguiente, la interacción de un mini-agujero negro con la materia y la energía ambiente puede calcularse sobre la base de un compromiso: el espacio-tiempo permanece «clásico» y descrito por la Relatividad General, y solamente su contenido —la materia y la energía— es cuántica. Utilizando esta aproximación, Stephen Hawking efectuó los cálculos en 1974 y descubrió un fenómeno tan inesperado que, creyendo en un error, rehizo varias veces el trabajo. Esfuerzo perdido, era preciso aceptar el resultado: ¡un mini-agujero negro debe evaporarse emitiendo partículas! Había motivos a primera vista para desanimarse: tal comportamiento está en contradicción flagrante con la concepción «clásica» del agujero negro, que prohíbe la evasión de cualquier cosa fuera del horizonte de sucesos. Ciertamente, un agujero negro «excitado» puede ceder energía perdiendo poco a poco su momento angular y su carga, pero en este caso las partículas se emiten en el exterior del horizonte. Por otro lado, el agujero negro de Schwarzschild «desexcitado» se considera que conserva una masa-energía irreducible, ligada a su área y a su entropía, que según la 2." ley de la termodinámica clásica no pueden más que crecer en el transcurso del tiempo. Ahora bien, los cálculos de Hawking muestran que un mini-agujero negro, excitado o no, debe dejar escapar partículas y evaporarse perdiendo su masa y su entropía. ¿Cómo resolver pues el conflicto? A menudo es fácil interpretar a posteriori un gran descubrimiento teórico, simplemente porque ilumina súbitamente relaciones entre fenómenos mal entendidos hasta entonces. A este respecto, la evaporación cuántica de los agujeros negros llegaba a tiempo para justificar totalmente la termodinámica de los agujeros negros. Pues si se mira con más atención ésta, en su versión «clásica», era incoherente. Veamos por qué. Según la termodinámica habitual, todo cuerpo que esté a una cierta temperatura e inmerso en un baño más frío —por ejemplo en el aire— debe perder energía por radiación. Al hacer esto, su entropía disminuye mientras que la del medio exterior aumenta. Durante el

transcurso del cambio, la entropía total, suma de la del cuerpo y la del baño, debe crecer en virtud de la segunda ley. ¿Qué dice por su parte la termodinámica del agujero negro? Le atribuye una entropía, dada por su área, y una temperatura, dada por su gravedad de superficie. Zambullamos el agujero negro en un baño ambiente. Si la temperatura del agujero negro es menor que la del baño, el agujero negro debe absorber energía y ganar entropía. Pero si el agujero negro está inmerso en un baño más frío es preciso también aceptar la idea de que pueda perder energía y entropía, lo que contradice la 2." ley de la termodinámica «clásica» de los agujeros negros... La incoherencia queda resuelta con el descubrimiento de Hawking. Gracias a ciertas posibilidades ofrecidas por la Mecánica Cuántica que detallaré más adelante, un agujero negro es capaz de emitir partículas o radiación incluso si se encuentra en su estado de mínima energía, sin rotación ni carga eléctrica. Al perder energía, el agujero negro ve decrecer su entropía —es decir su área—, mientras que la del baño, que recupera la energía, aumenta. De hecho, el crecimiento de entropía del baño es superior a la pérdida de entropía del agujero negro. Por consiguiente, la 2." ley de la termodinámica se satisface en el conjunto del sistema agujero negro + baño, cuya entropía aumenta siempre. El túnel Si, clásicamente, nada puede salir de un agujero negro, es que está rodeado de una especie de «membrana unidireccional»: el horizonte de sucesos permite entrar pero no salir. Visto desde el interior, el agujero negro está cercado por una barrera infranqueable, infinitamente alta. Para saltar por encima y salir, sería precisa una energía infinita. Ahora bien, la Mecánica Cuántica ofrece la posibilidad de franquear un muro infinitamente alto con una energía finita. Este fenómeno, llamado efecto túnel, es una consecuencia directa del Principio de Incertidumbre, que es respecto a la Mecánica Cuántica lo que el principio de Equivalencia es a la Relatividad General: la piedra de toque. La Mecánica Cuántica nos ha enseñado que hay una «cierta vaguedad» en la descripción de la realidad microscópica. Si se quiere, por ejemplo medir la posición de un electrón aislado, es preciso localizarle, y para ello verle. Pero para verle es preciso iluminarle. Ahora bien, el electrón es tan pequeño que los fotones que sirven para iluminarle poseen bastante energía para hacerle mover: los fotones dan un ligero impulso al electrón y modifican su velocidad. Por consiguiente, la medida de la posición con una gran precisión introduce un grado de incertidumbre en función de su velocidad. Si la velocidad de un electrón es conocida con una aproximación de 1 cm/s, es imposible localizarle con una precisión mejor de 1 cm. En general, toda medida perturba un sistema microscópico. Este gran Principio de Incertidumbre ha sido formulado por Werner Heisenberg en 1927. Bien entendido, el indeterminismo cuántico se esfuma conforme las masas se van haciendo mayores. Es así como el protón, dos mil veces más masivo que el electrón, puede localizarse con una aproximación de 5 mieras si lleva una velocidad de 1 cm/s. La precisión, aunque mejor, es todavía pobre si se tiene en cuenta que el diámetro del protón es mil millones de veces menor. Pero, para los objetos macroscópicos, su masa es tan considerable respecto a la de las partículas elementales que la incertidumbre sobre la medida de su posición y de su impulso se desvanece completamente. El mundo habitual es «determinista» 2. El Principio de Incertidumbre se aplica a otras magnitudes físicas cuantificadas tales como la energía: en un intervalo de tiempo muy breve, la energía puede fluctuar una cierta cantidad. Imaginemos ahora una partícula prisionera de un agujero negro. Si, clásicamente, le está estrictamente prohibido salir, el Principio de Incertidumbre de la Mecánica Cuántica

le permite tomar del agujero negro una cierta cantidad de energía durante un cierto lapso de tiempo. Ahora bien, si el agujero negro es microscópico, de la talla de una partícula elemental, el «salto» de energía puede ser suficiente para desplazar la partícula a una distancia superior al radio del horizonte. El resultado de la operación es una pérdida de energía del agujero negro por evasión de una partícula. La partícula no ha saltado realmente por encima del muro infinitamente alto del horizonte, ha tomado más bien un «túnel», abierto transitoriamente por el Principio de Incertidumbre. 2 Lo que, contrariamente a una opinión generalizada, no significa en absoluto que su evolución pueda predecirse. Numerosos fenómenos físicos perfectamente clásicos pero muy complicados —«no lineales»—, aunque gobernados por ecuaciones deterministas, evolucionan hacia estados totalmente imprevisibles. Esa es la razón por la que las previsiones meteorológicas no podrán nunca ser fiables en una escala de tiempo superior a una semana, y esto cualquiera que sea la potencia de los ordenadores que las calculan.

El vacío polarizado Una interpretación equivalente del fenómeno de evaporación de un agujero negro recurre a lo que se denomina la polarización del vacío. El vacío de la Mecánica Cuántica no es la ausencia de todo campo, de toda partícula o de toda energía. El vacío cuántico no es más que el estado de mínima energía, y si aún así se le sigue llamando «vacío», es porque no hay ningún estado posible de energía estrictamente igual a cero. El Principio de Incertidumbre entre tiempo y energía permite comprender por qué el vacío cuántico está poblado. En virtud de la equivalencia masa-energía, una fluctuación de la energía del vacío puede materializarse en partículas elementales. En 1928, Paul Dirac descubrió que a cada partícula elemental le corresponde una antipartícula de la misma masa, y con propiedades «reflejadas». Así, el electrón, que tiene una carga eléctrica elemental negativa, tiene una antipartícula, llamada positrón, que tiene la misma masa pero de carga eléctrica opuesta. El fotón, que no tiene masa, ni carga, es su propia antipartícula. Si una partícula y su antipartícula se encuentran se aniquilan y transforman su masa en energía. La asociación de una partícula y de su antipartícula representa pues una cierta cantidad de energía, igual a dos veces la masa en reposo, y recíprocamente, una cierta cantidad de energía puede ser considerada virtualmente como un conjunto de pares partícula-antipartícula. Es por esta razón por la que el vacío cuántico, agitado por fluctuaciones de energía, puede asimilarse a un «océano de Dirac», poblado por pares partícula-antipartícula que surgen espontáneamente del vacío y se aniquilan en seguida. Durante 1CT21 segundos, un par electrón-positrón puede aparecer espontáneamente y desaparecer. Pares de partículas más pesadas pueden también surgir del vacío, pero a causa del Principio de Incertidumbre no tienen posibilidades de subsistir más que en tiempos todavía más cortos. Un par protón-antiprotón creado en el vacío no puede sobrevivir en media más que un tiempo dos mil veces menor que un par electrón-positrón. En el vacío cuántico y en ausencia de toda fuerza, los pares se crean y se aniquilan sin cesar, de manera que en media ninguna partícula o antipartícula ha sido creada o destruida verdaderamente ni puede ser observada directamente. Los pares son virtuales. Supongamos ahora que se superpone al vacío un campo de fuerzas, por ejemplo un campo eléctrico. Cuando un par virtual electrón-positrón surge del vacío, el electrón es desviado por el campo eléctrico en una cierta dirección mientras que el positrón es desviado en la dirección opuesta. Si el campo eléctrico es suficientemente fuerte, el par se separa una distancia tal

que llega a ser incapaz de refundirse para aniquilarse. Así, de ser virtuales, las partículas se convierten en reales. Se dice que el vacío está polarizado. La creación espontánea de partículas por polarización del vacío no es una fantasía de los teóricos sino un fenómeno debidamente verificado en el laboratorio. Examinemos el átomo de hidrógeno en el vacío cuántico. Está constituido por un electrón cargado negativamente, en órbita alrededor de un protón cargado positivamente. Alrededor de ellos, aparecen y desaparecen sin cesar pares virtuales de partículas, pero el campo eléctrico creado por las cargas del protón y del electrón polariza el vacío en su entorno inmediato. Las partículas de carga opuesta tienen tendencia a estar separadas y, durante breves instantes se crean minúsculas corrientes eléctricas. Son incluso bastante intensas para hacer danzar al electrón sobre su órbita. La danza se traduce por un ligero desplazamiento de las rayas emitidas por el átomo de hidrógeno, denominado «efecto Lamb». Este efecto ha sido detectado experimentalmente en 1947. El vacío sin embargo no es fácil de polarizar. Se necesita una gran densidad de energía para llegar a separar los pares virtuales de partículas y materializarlos. No importa por otra parte la naturaleza de la energía puesta en juego. Puede ser eléctrica: cuando la tensión entre las placas de un condensador sobrepasa un cierto umbral, el vacío se polariza y el condensador «chasquea». Puede ser térmica: un trozo de metal calentado moderadamente radia fotones (que son sus propias antipartículas), pero a mil miles de millones de grados radia pares electrón-positrón. Puesto que todas las formas de energía son equivalentes a la masa, es necesario en buena lógica esperar que la energía gravitatoria pueda también convertirse espontáneamente en partículas. Ese es precisamente el sentido profundo del descubrimiento de Hawking. El vacío cuántico está polarizado por el campo gravitatorio muy intenso que reina en el entorno de un mini-agujero negro (Figura 55). En el océano de Dirac, se crean y se destruyen constantemente pares virtuales. Durante un breve instante, una partícula y su antipartícula se separan. Hay entonces cuatro posibilidades: los dos compañeros se encuentran de nuevo y se aniquilan (proceso I); la antipartícula es capturada por el agujero negro y la partícula se materializa en el mundo exterior (proceso II); la partícula es capturada y su compañero se escapa (proceso III); los dos compañeros se sumergen en el agujero negro (proceso IV). Hawking ha calculado las probabilidades de realización de estos diversos procesos y ha encontrado que el proceso II es preponderante. El balance energético es pues como sigue: al capturar preferentemente antipartículas, el agujero negro pierde simultáneamente energía, y por tanto masa. Para un observador exterior, el agujero negro se evapora emitiendo radiación y partículas.

Negro es negro Se ha pasado revista a todos los mecanismos de extracción de energía de un agujero negro. La energía rotacional y la energía eléctrica pueden evaporarse por procesos tanto clásicos como cuánticos. En particular, la desexcitación por superradiación de un mini agujero negro cargado y en rotación, de la que hablé en el capítulo anterior, se reinterpreta como una polarización del vacío. Entre los pares virtuales que le rodean, el agujero negro captura con preferencia las partículas que tienen una carga de signo opuesto a la suya, o un momento angular de signo contrario. Así pues, incluso en el vacío, un mini-agujero negro formado inicialmente con una carga y un momento angular tiene una tendencia espontánea a neutralizarse y a frenarse, para tender rápidamente hacia el estado de Schwarzschild. Pero debido a la polarización del vacío el mismo estado de Schwarzschild pierde su irreductibilidad «clásica» y su masa «inerte» se evapora espontáneamente. ¿Cuál es la naturaleza exacta de la radiación emitida?

Por una curiosa ironía del destino, el agujero negro radia como otro parangón de la física del mismo «color»: el cuerpo negro. El cuerpo negro es una especie de radiador ideal, en perfecto equilibrio térmico caracterizado por una determinada temperatura. Emite en todas las longitudes de onda, con un espectro que no depende más que de su temperatura y no de su naturaleza particular. Un horno perfectamente opaco calentado a una temperatura dada, en la pared del cual se efectúa un pequeño agujero para observar la radiación, da una idea aproximada de cuerpo negro. El cuerpo negro es por otra parte una de las fuentes históricas de la Mecánica Cuántica. El estudio de sus propiedades condujo a Max Planck, en 1899, a emitir la hipótesis de los cuanta de energía. Los cálculos de Hawking demuestran que la radiación de evaporación de un agujero negro tiene todas las características de un cuerpo negro. Una vez más, el resultado hace perfectamente coherente la termodinámica del agujero negro, asignándole una verdadera temperatura, uniforme en el horizonte, y directamente dada por la gravedad de superficie. Para el agujero negro de Schwarzschild, la temperatura es inversamente proporcional a la masa. Si el agujero negro tiene la masa del Sol, su temperatura es despreciable: una cien mil millonésima de grado Kelvin (por encima del cero absoluto). No es nada sorprendente, puesto que el fenómeno de evaporación es de origen cuántico y concierne sobre todo a los mini-agujeros negros. Estos últimos están efectivamente muy calientes. Un agujero negro que posea la masa de un pequeño asteroide tiene la temperatura de un horno «calentado al blanco» (6.000°), y su radiación pertenece al dominio visible. En cuanto al mini-agujero negro «típico» de 1015 g, del tamaño de un protón, tiene una temperatura de mil miles de millones de grados. A tal energía, la radiación saliente ya no está constituida por luz visible, sino por una mezcla de fotones gamma y partículas elementales masivas. Cuanto menor es el agujero negro, más caliente está. Y cuanto más caliente está, más radia y pierde masa. La emisión de un mini-agujero negro no puede pues sino acelerarse, y los últimos estadios de la evaporación toman el aspecto de una explosión cataclísmica. El agujero negro de 1015 g tardaría diez mil millones de años para evaporarse completamente, pero durante la última décima de segundo liberaría una energía equivalente a un millón de bombas de hidrógeno de 1 megatón. El resultado final de la evaporación de un agujero negro no es conocido. Se puede argüir el hecho de que la desaparición del horizonte de sucesos dejaría una singularidad desnuda central. Pero esta visión clásica es verosímilmente errónea. Cuando el radio del agujero negro en evaporación se encoge hasta las dimensiones de la longitud de Planck (10~33 cm), las fluctuaciones cuánticas del propio espacio-tiempo entran en luego, y sólo una teoría de la gravitación cuántica podrá decidir el último destino del mini-agujero negro. Si tuviese que evaporarse completamente radiando toda su masa, el espacio-tiempo plano debería lógicamente tomar su lugar. La gravitación cuántica aparece verdaderamente como la vía real que permite entender a la vez el Big Bang y el destino de los agujeros negros, el principio y el fin del Universo. La inestabilidad gravitacional Un sistema termodinámico convencional, inmerso en un baño más frío, pierde energía. Su temperatura disminuye, la del baño aumenta y se alcanza un equilibrio. Se dice que tiene un calor específico positivo. El agujero negro cuántico se comporta al revés. Su temperatura aumenta cuando pierde energía, y viceversa. Inmerso en un baño más caliente, el agujero negro tiene tendencia a absorber energía y a crecer, así pues a enfriarse y a crecer aún más, hasta absorber toda la energía disponible. Si por el contrario está inmerso en un baño menos caliente, radia, se encoge y termina por evaporarse dispersando toda su energía. El agujero negro tiene un calor específico negativo. Es pues fundamentalmente inestable.

Ahora bien, esta inestabilidad es un elemento común en todos los sistemas autogravitantes —es decir aquellos cuyo equilibrio se rige únicamente por la gravitación—, sean cuánticos o no. Tomemos el ejemplo familiar de un satélite artificial en órbita en la atmósfera terrestre. La fricción del aire le hace perder energía gravitatoria y caer en espiral hacia el centro. Al hacer esto, gana velocidad y energía cinética y se aplasta al llegar al suelo sin poder encontrar una órbita estable. El colapso gravitatorio ofrece el ejemplo extremo. Al colapsarse bajo su propio peso, un conjunto de partículas tales como una estrella o un cúmulo de estrellas radia su energía de ligadura gravitatoria, se contrae y se hace cada vez más caliente. En ausencia de toda otra fuerza antagonista, la formación ineluctable de una singularidad traduce precisamente la imposibilidad de alcanzar un estado de equilibrio. La evaporación de un mini-agujero negro no es por otra parte más que un colapso gravitatorio al revés, como se verifica enseguida si se gira el diagrama de espacio-tiempo de la figura 55. Hay materia que sale del horizonte: ¡el estado «instantáneo» de un mini-agujero negro en evaporación es pues el de un agujero blanco! La Mecánica Cuántica permite así devolver al agujero negro una propiedad de inestabilidad característica de la gravitación en general. Por otra parte, la ligadura entre gravitación y termodinámica es verosímilmente un rasgo general de la Naturaleza, que abarca reinos más amplios que el de los agujeros negros. En efecto, en las transformaciones termodinámicas de un agujero negro el papel crucial lo tiene el horizonte de sucesos. Ahora bien, existen horizontes de sucesos en contextos alejados de la física de los agujeros negros. Volvamos al espacio-tiempo plano, sin gravitación de la Relatividad Restringida. Un observador que tenga una aceleración constante no tiene «clásicamente» acceso a la información que provenga de toda una región lejana del espacio-tiempo, simplemente porque la radiación emitida desde esta región no puede nunca «alcanzarle». Para él, toda esta parte del espacio-tiempo está oculta detrás de un horizonte de sucesos. Si se tiene en cuenta ahora las fluctuaciones cuánticas del vacío, se deduce de ello que la aceleración 3 va a polarizar el vacío. si el observador transporta con él un detector de partículas, medirá un «ruido cuántico» bajo forma de radiación de cuerpo negro, cuya temperatura es proporcional a su aceleración. En el dominio de la Cosmología, se conocen modelos de Universo en expansión que poseen horizontes de sucesos. Una vez más, se les puede asociar una temperatura de cuerpo negro. La termodinámica de los agujeros negros nos ha alejado de las máquinas de vapor... El dios tramposo Las partículas elementales interaccionan bajo la acción de fuerzas nucleares y electromagnéticas. Estas interacciones obedecen a un cierto número de reglas, verificadas por la observación, que permiten construir una teoría coherente de la física de partículas. Una de estas reglas se llama la conservación del número bariónico. En términos simples, dice que en todas las interacciones fundamentales la proporción de partículas y de antipartículas se conserva. De esa manera un fotón (de número bariónico cero) puede transformarse en un par constituido por un neutrón (de número bariónico +1) y un antineutrón (de número bariónico —1), porque el número bariónico total permanece igual a 0. En cambio, un neutrón no puede en ningún caso convertirse en un par de fotones. Una regla similar se aplica a otra familia de partículas llamadas leptones, que comprende en particular a los electrones, los muones y los neutrinos. A cada uno de ellos se le asocia un «número leptónico», que debe conservarse en las interacciones fundamentales. Este principio básico de la física de partículas es alegremente violado por el agujero negro cuántico. Se ha visto en efecto que cuando un agujero negro se forma o traga materia «pierde su pelo»: toda información sobre la naturaleza de las partículas que penetran en el

horizonte de sucesos desaparece. En particular, un agujero negro formado a partir de bariones (los protones y neutrones que constituyen por ejemplo el núcleo de una estrella masiva) no memo-riza el número bariónico. Podría igualmente haberse formado a partir de antibariones, sin que haya nada que le distinga. Esperemos ahora pacientemente. Al fin de un tiempo más o menos largo, el agujero negro va a radiar por el mecanismo de Hawking, restituir energía y entropía. Ahora bien, el hecho de que el agujero negro radie como un cuerpo negro significa que no puede emitir más que cantidades iguales de bariones y de antibariones, o de leptones y de antileptones. Dicho de otra forma, el número bariónico neto que sale de un agujero negro en evaporación es siempre nulo. La evaporación de un agujero negro viola la regla de conservación de los números bariónicos y leptónicos. Esta propiedad sorprendente ilustra bien la manera en la que la información restituida al medio exterior por la evaporación de un mini-agujero negro se «degrada» al salir del horizonte. Es este último quien estampa un «sello térmico» y hace aleatorios los datos sobre la materia y la radiación que salen. Por esta razón, Hawking ha estimado que el Principio de Incertidumbre aplicado al agujero negro era transcendido por lo que él llama el «Principio Aleatorio». Equivalente por otra parte a un campo gravitatorio uniforme, ver capítulo 3.

A Einstein nunca le gustó la Mecánica Cuántica, aunque jugó un papel de pionero en su elaboración. Le repugnaba la idea del indeterminismo, inherente al Principio de Incertidumbre, y había expresado su aversión mediante la frase: «Dios no juega a los dados.» La respuesta de Hawking es la siguiente: «No solamente juega a los dados sino que los lanza donde nadie puede verlos.» Cuarta Parte

LA LUZ REENCONTRADA El verdadero misterio del mundo es lo visible, no lo invisible. Osear Wilde

Capítulo 15

LOS AGUJEROS NEGROS PRIMORDIALES Grumos Remontémonos en el pasado muy lejano del Universo, hace quince mil millones de años. Formado desde hace poco, el Universo no es todavía más que una pasta lisa y homogénea, sin estructura precisa, pero «temblorosa», agitada por ligeras fluctuaciones que, bajo la influencia de su propia gravitación, tienden a concentrarse más para formar «grumos». Pero, como un pastel que se infla en un horno, la pasta-Universo se dilata, inflada por la explosión primordial. La oposición entre el movimiento general de expansión y los movimientos particulares de condensación provoca una de las grandes cuestiones de la astrofísica contemporánea: ¿cómo algunos grumos han sido capaces de transformarse en galaxias? Después de todo, la dilatación de la pasta cósmica habría podido inhibir las condensaciones locales de manera que ninguna galaxia, ninguna estrella, ningún planeta —

y, al fin de la cadena, ningún ser viviente— hubiera aparecido jamás en la historia del Universo. 1 El «Big Bang» anglosajón.

La existencia de galaxias prueba «a posteriori» que ciertas fluctuaciones del Universo primordial han podido crecer y dejar de ser solidarias con la expansión universal. Durante tales condensaciones, el contraste de densidad, es decir el exceso de materia de un grumo respecto a la del medio ambiente ha aumentado sin cesar. Al principio era mínimo, apenas una milésima, aunque abarcaba el equivalente de varios cientos de masas solares. Hoy, para la misma masa, el contraste de densidad alcanza cien mil. La gravitación ha trabajo bien ~. Toda cocinera sabe que al agitar una pasta puesta sobre el fuego es más fácil que se formen grumos pequeños que grandes. Se puede uno preguntar si en el Universo primordial, fluctuaciones de gran amplitud, pero que reunieran masas minúsculas respecto a las de las galaxias, no hubieran podido formar en primer lugar pequeños cuerpos gravitatoriamente condensados. Stephen Hawking, evocando un mecanismo de esta especie, ha propuesto en 1971 la existencia de agujeros negros primordiales. El lector recordará que la masa de un agujero negro generado en el hundimiento de una estrella sobrepasa probablemente las tres masas solares. Para los agujeros negros primordiales, tal impedimento no existe. Agujeros negros de todos los tamaños y de todas las masas pueden condensarse muy pronto en la historia del Universo, en particular miniagujeros negros de tamaño tan reducido como el de una partícula elemental. ¿Acaso se puede esperar probar la teoría de los mini-agujeros negros primordiales mediante la observación astronómica? Mundos en colisión La mejor ganga para detectar los mini-agujeros negros sería el encuentro de uno de ellos con el Sistema Solar. Hawking ha sugerido que un mini-agujero negro hubiera podido ser capturado por el Sol y caer gradualmente hacia su centro. Contrariamente a lo que se podría ingenuamente pensar, nuestra estrella no sería engullida. Un pequeño agujero negro podría por el contrario subsistir allí sin afectarle sensiblemente. En efecto, el Sol no estaría en peligro más que si el agujero negro creciese muy rápido. Ahora bien, la materia solar tragada por el agujero negro central emitiría tanta radiación antes de desaparecer que la presión de radiación ejercida sobre el medio exterior limitaría la velocidad de crecimiento del agujero negro. El gasto de materia tragada se ajustaría al gasto de energía liberada, de manera que la zona que rodea el agujero negro se convertiría ni más ni menos que en un reactor nuclear perfectamente estable. El Sol con «corazón negro» continuaría su vida apacible sobre la Secuencia Principal, y su funcionamiento sólo sería modificado de manera casi imperceptible. Este escenario algo extravagante ha sido invocado para tratar de explicar los desacuerdos entre la cantidad medida de neutrinos solares que llegan a la Tierra y la predicha por las reacciones nucleares. Hoy se ha abandonado en provecho de mecanismos más convencionales, que dan mejor cuenta del desacuerdo 3. Ni que decir tiene que una colisión entre un mini-agujero negro y nuestro planeta es extremadamente improbable, mucho más que la colisión entre nuestro planeta y un grueso meteoro. Tal suceso ha sido considerado sin embargo para explicar la célebre catástrofe de Tunguska. El 30 de junio de 1908, el valle del Yenissei en Siberia fue devastado por la caída de un cuerpo celeste. La explosión se acompañó de fenómenos ópticos, acústicos y mecánicos; la onda de choque asoló vanos kilómetros de bosque, diezmó centenares de renos y se extendió a más de 1.000 km, rompiendo ventanas y sacudiendo inmuebles.

Registrada por los sismógrafos, liberó una energía comparable a 1.500 bombas de Hiroshima. El cielo se iluminó y, durante algún tiempo, su luminosidad fue tal que era posible leer en plena noche hasta en el Cáucaso. Pero el lugar de la explosión no fue explorado científicamente hasta veinte años más tarde. Los árboles estaban todavía quemados en un radio de 15 km, abatidos en un radio de 30 km y dispuestos radialmente alrededor del centro de la explosión, aunque ningún cráter marcaba el punto de impacto. Como origen de la catástrofe, se han propuesto un cierto número de incidentes, yendo del más banal al más extraño. La explicación hoy adoptada es la caída de un meteoro, más exactamente de un fragmento de cometa. Un trozo de hierro y de rocas, que midiera algunos cientos de metros y cayendo en sentido inverso de la rotación terrestre, a una velocidad de 50 km/s, reproduciría en efecto todos los fenómenos observados en Tunguska: evaporación en la atmósfera con inyección de numerosas partículas de polvo, sin dejar en el suelo ni cráteres ni residuos importantes. La mejor prueba reposa aún en el análisis químico de los pequeños restos recogidos sobre el lugar: se trata esencialmente de silicatos y de esférulas de ferro níquel, cuya composición coincide perfectamente con la de los cometas. El contraste de densidad entre una estrella de tipo solar y el medio interestelar es aún mucho mayor: 103D. Sería suficiente, por ejemplo, que los neutrinos tuvieran una masa no nula para que el flujo teórico, calculado habitualmente con la hipótesis de masa nula, se haga compatible con el valor observado. 2

Estas evidencias no han impedido a dos astrofísicos americanos proponer un punto de vista radicalmente diferente: un mini-agujero negro habría atravesado la Tierra como un cuchillo caliente en mantequilla fundida y habría salido en los antípodas de Tunguska; por casualidad, los antípodas se encuentran en el fondo del océano Atlántico Sur, donde ningún sismógrafo, ningún árbol o ningún cristal, es susceptible de revelar nada. Un análisis más en profundidad muestra que el paso de un mini-agujero negro a través de nuestro planeta habría desencadenado seísmos que no han sido observados, y que su salida hubiera sido acompañada de ondas de choque atmosféricas que no han sido tampoco señaladas. La explicación del mini-agujero negro errante sólo era fantasiosa 4, pero era un buen «golpe publicitario». Sin embargo, a los especialistas de los agujeros negros no les ha hecho ninguna gracia: acomodar el agujero negro «a todas las salsas» nunca ha sido el mejor medio de reforzar su credibilidad... La vida breve La principal esperanza para detectar mini-agujeros negros reside de hecho en su propiedad fundamental, descubierta por Hawking a partir de los principios de la Mecánica Cuántica, a saber: la evaporación de su masa bajo forma de una radiación de cuerpo negro. La teoría de las fluctuaciones de densidad establece que los agujeros negros de masa débil no han podido condensarse más que en los instantes muy iniciales del Universo. Pero los mini-agujeros negros están condenados a evaporarse tanto más rápidamente cuanto menor es su masa 5. Un agujero negro de una tonelada debe evaporarse Menos, sin embargo, que las que invocan la caída de un trozo de antimateria o la desintegración de una astronave extraterrestre averiada. La duración de un agujero negro es proporcional al cubo de su masa.

en una diez mil millonésima de segundo, un agujero negro de un millón de toneladas sobrevive diez años. En la actualidad no subsistirían pues más que los agujeros negros primordiales suficientemente masivos para que su tiempo de vida fuese superior a la edad del Universo, es decir quince mil millones de años. La masa mínima para que esto sea así es de mil millones de toneladas. Es aproximadamente la de una montaña, y los agujeros negros correspondientes tienen un radio de 1CT13 cm, es decir el de un protón.

En cuanto a los agujeros negros de mayor masa, no pueden evaporarse más que al cabo de un tiempo muy superior a la edad del Universo. La vida del agujero negro de una masa solar alcanza por ejemplo 1066 años... Este gigantesco número no debe sorprender: al ser la evaporación un fenómeno de origen cuántico, sólo puede manifestarse en escalas muy pequeñas de distancia, comparables a la de las partículas elementales. Esa es la razón por la que la evaporación de agujeros negros de mucha mayor masa que una montaña se hace totalmente insignificante, ya sean de origen primordial o formados ulteriormente en las explosiones de supernova. De hecho, se cree más bien que para los agujeros negros grandes la tendencia a crecer por absorción de materia domina ampliamente sobre la tendencia a encogerse por evaporación cuántica. Se plantea entonces la cuestión: ¿En qué intervalo de masa se puede esperar detectar mini-agujeros negros que se hallen en evaporación? Para responder a esto, es preciso tener en cuenta el hecho de que los agujeros negros no están sumergidos en un vacío perfecto, sino en un medio material que posee una cierta energía, igual al menos a la de la radiación cosmológica, vestigio de la explosión primordial. En la actualidad, la temperatura del «baño» cósmico es de 3° K. Las leyes de la termodinámica dicen que los agujeros negros primordiales que todavía sobreviven, sólo los de menor masa que 1026 g (la masa de la Luna en un radio de 0,1 mm) tienen una temperatura superior a 3° K, pudiendo por consiguiente evaporarse cediendo energía al baño cósmico ambiente. Por el contrario los agujeros negros de mayor masa tienen que absorber energía cósmica y crecer. Se concluye por ello que los agujeros negros de menor masa que 1015 g se han evaporado ya, los comprendidos entre 1015 y 1026 g están evaporándose, y los de mayor masa —incluyendo los agujeros estelares de «segunda generación»— están creciendo. El último grito ¿Cuál es la forma observable en la que puede manifestarse la evaporación de un miniagujero negro de masa adecuada? Los cálculos de Hawking demuestran que la evaporación se hace verdaderamente explosiva en la última décima de segundo, transformando súbitamente en energía la masa del mini-agujero negro. Esta energía se disipa principalmente en forma de una intensa bocanada de radiación gamma, que sería detectable en principio en un radio de 30 años-luz. Al consultar de nuevo el cuadro 1 6, el lector comprobará que la radiación gamma transporta en media una energía que es un millón de veces superior a la de la radiación visible. Así pues los rayos gamma tienen un fuerte poder de penetración y serían fatales para la vida terrestre si no fuesen interceptados por las capas superiores de la atmósfera. Una manera de observar la radiación gamma cósmica es utilizar la misma atmósfera como detector. Al llegar a la alta atmósfera, los fotones de la radiación gamma convierten su energía en materia, creándose haces de partículas y de antipartículas. En el mismo instante de su creación, las partículas se propagan exactamente a la velocidad de la luz en el vacío; viajan pues inicialmente más rápido que la luz en el aire. Esta inyección repentina de partículas «ultra-relativistas» en el campo electromagnético terrestre es análoga a la ruptura de la barrera del sonido por un avión a reacción: se propaga una onda de choque, pero en vez de producir un «bang» acústico provoca un relámpago de luz visible llamado radiación Cerenkov. Este tipo de radiación, perfectamente detectable en el suelo, es aprovechada desde hace tiempo para medir los flujos de rayos gamma que provienen del Cosmos. Se detectan efectivamente bocanadas de rayos gamma, que llegan a la Tierra al ritmo de algunas por año, debido a su «luz» Cerenkov, pero no poseen las características de las explosiones de mini-agujeros negros. Quede claro que los mini-agujeros negros

primordiales no son las únicas fuentes celestes de radiación gamma. Por otra parte, aparte de estas bocanadas brutales, se ha captado, mediante detectores específicos colocados en satélites con órbita por encima de la atmósfera, un flujo más apacible y continuo de radiación gamma. Este descubrimiento capital prueba que numerosos fenómenos astronómicos inyectan continuamente en el espacio interestelar radiación de alta energía. El origen detallado de este fondo difuso de radiación gamma es aún controvertido, pero se asocia generalmente a astros compactos tales como las estrellas de neutrones (ver capítulo siguiente), o a mucho mayor escala a los núcleos activos de galaxias. Puede admitirse sin embargo que numerosísimos mini-agujeros negros hayan podido explotar en un pasado reciente y ser responsables de una parte de la radiación gamma observada. El satélite SAS2 ha efectuado medidas precisas del flujo difuso de radiación gamma; su nivel es de hecho tan bajo que, incluso suponiendo que todo el flujo observado provenga de tales explosiones, el número medio de mini-agujeros negros primordiales contenidos en un volumen de un año-luz cúbico no podría sobrepasar 200. En estas condiciones, el mini-agujero negro más próximo a la Tierra se situaría mucho más allá del Sistema Solar. La densidad real de los mini-agujeros negros primordiales es ciertamente mucho menor aún. Han sido propuestas limitaciones más estrictas que las impuestas para la radiación gamma. Así, cuando se produce la explosión de un mini-agujero negro, las partículas emitidas deberían interaccionar con el campo magnético general de nuestra Galaxia y producir impulsos de ondas de radio de características bien particulares; como la radiación radio se detecta con mucha mayor facilidad que la radiación gamma, las explosiones de mini-agujeros negros no deberían escapar a la vigilancia de los radiotelescopios gigantes. El hecho de que éstos no hayan detectado nada impone una limitación muy severa a la frecuencia de las explosiones: no debe exceder de una cada tres millones de años en un volumen de un año-luz cúbico. Los mini-agujeros negros primordiales de la masa de una montaña quizás existan, pero son ciertamente muy raros. Los espejismos gravitatorios La ausencia de trazas características de explosiones de mini-agujeros negros no excluye la existencia de agujeros negros primordiales e mayor masa que 1015 g, que no se han evaporado todavía. ¿Se puede esperar detectarlos? El lector no tiene más que recordar las experiencias de «iluminaciones» descritas en el capítulo 10 para convencerse de que un agujero negro, incluso totalmente aislado en el espacio intersideral, puede focalizar radiación de lejanas fuentes y representar el papel de una «lente gravitatoria». Supongamos por ejemplo que la Tierra, un agujero negro y un astro lejano estén alineados fortuitamente. Según las leyes de la Relatividad General, la curvatura del espacio-tiempo en las proximidades del agujero negro permite que la luz emitida por el astro recorra vanos trayectos posibles antes de llegar a la Tierra (Figura 56). En estas condiciones, los telescopios deberían captar varias imágenes procedentes de la misma fuente: una imagen «principal», correspondiente a los rayos luminosos menos desviados, e imágenes fantasmas que se corresponden con trayectorias más «retorcidas». Esta distorsión de las imágenes aparentes respecto a la imagen real toma el nombre de espejismo gravitatorio. El espejismo tradicional, observado a veces en el desierto, viene provocado por el calor que emana de la arena, que por conducción en la atmósfera hace que las capas de aire apiladas unas sobre otras posean índices de refracción diferentes. Los rayos luminosos reflejados en la arena siguen varios caminos posibles antes de alcanzar al viajero lejano, y es concebible

que este último pueda dejarse engañar por imágenes «fantasmas», interpretándolas según sus deseos como un oasis, una ciudad o una extensión de agua. No cabe duda, los espejismos gravitatorios debidos a la distorsión del espacio cósmico son mucho más difíciles de descubrir. Imaginemos por ejemplo un agujero negro de masa estelar (primordial o no), aislado en nuestra Galaxia y relativamente próximo. Como el agujero negro tiene un diámetro propio de algunos kilómetros, su diámetro aparente a una distancia de varios años-luz se hace tan minúsculo que la probabilidad de un alineamiento con una estrella más lejana de nuestra Galaxia es extraordinariamente débil. De hecho, incluso si se realizase el alineamiento, la separación angular entre las diferentes imágenes de la estrella, que depende de la masa de la lente gravitatoria, estaría muy por debajo del poder de resolución de los telescopios actuales y futuros. Si los agujeros negros estelares deben detectarse, ¡no será ciertamente gracias a los espejismos gravitatorios! Por el contrario, un agujero negro gigante situado fuera de la Galaxia debería revelar su presencia con más facilidad; en esta configuración, las fuentes lejanas de radiación son o bien quásars muy lejanos, o bien la radiación cosmológica de fondo 7.

Se conocen ya media docena de casos verificados de espejismos gravitatorios multiplicadores de la imagen de quásares. Sin embargo, estos espejismos no están causados por agujeros negros gigantes, sino más prosaicamente por galaxias intermedias. Recordemos que toda concentración de materia deforma en diversos grados la geometría del espacio-tiempo y puede pues representar el papel de una lente gravitatoria. No obstante, es posible esperar que en un futuro próximo los progresos de la instrumentación astronómica permitan catalogar un número suficientemente grande de espejismos gravitatorios para que, en el conjunto, algunos de ellos sean debidos a agujeros negros. El asunto de los espejismos gravitatorios acaba de tener un alza espectacular con el descubrimiento de un par de quásars bautizados como Hazard 1146 + 111B y C, que presentan desplazamientos espectrales rigurosamente idénticos. Es seductor interpretar el par como imagen de un solo objeto, desdoblado por una lente intermedia. Pero Hazard 1146 + 111 se distingue de los otros espejismos gravitatorios por la separación angular

excepcionalmente grande de sus componentes: 2,6 minutos de arco, es decir veinte veces más que para todos los otros quásars múltiples catalogados. Se concluye de ello que la masa de la lente gravitatoria debe ser considerable, equivalente a la de varios millares de galaxias. Hay tres tipos de objetos que pueden representar el papel de una lente tan masiva: un cúmulo extremadamente denso de galaxias, un agujero negro «supergigante», o incluso una «cuerda cósmica». No hay ninguna traza observacional que abogue en favor de un cúmulo de galaxias situado en la línea de observación. Por otra parte, las «cuerdas cósmicas» son estructuras materiales inventadas por los teóricos de partículas elementales, que habrían podido producirse en los primeros instantes del Universo, y que tendrían la forma de largos filamentos de radio casi nulo que transportarían energía gravitatoria; ahora bien ningún indicio experimental permite afirmar la existencia real de tales cuerdas, ni tampoco la validez de las teorías subyacentes. Queda entonces la hipótesis de un gigantesco agujero negro que, paradójicamente, se revela como la menos «exótica». El agujero negro en cuestión tendría una masa comprendida entre IQ>2 y 1017 M☼, no podría ser más que de origen primordial y sobrepasaría de lejos por su gigantismo a todo lo que los partidarios de los agujeros negros hubieran podido imaginar. Pero antes de adoptar este punto de vista sensacionalista, será preciso asegurarse en primer lugar que Hazard 1146 + 111 es realmente un espejismo gravitatorio, es decir que las dos imágenes provienen efectivamente de un solo y único quásar, y no de dos quásars físicamente distintos pero muy próximos uno de otros. Lo ideal sería poder detectar variaciones de luminosidad en una de los componentes, que se reproduciría algún tiempo más tarde en el otro componente; desdichadamente, el cálculo de los tiempos de recorrido de los rayos luminosos que forman las dos imágenes da un desplazamiento temporal de mil años. No se trata de esperar tanto tiempo para resolver el problema. Un método más rápido consiste en intentar descubrir la distorsión que un agujero negro gigante provocará en la radiación cosmológica de fondo. Las medidas están en marcha. en su medio cósmico ambiente; ahora bien, si los cúmulos se redujesen únicamente a las galaxias y al gas intergaláctico detectados, su gravitación no sería suficientemente fuerte para mantener su cohesión. Así pues debe existir una materia oscura, invisible a la radiación electromagnética, pero cuya acción gravitatoria «liga» los cúmulos de galaxias. Para constituir la materia oscura acuden con naturalidad a la mente 8 los agujeros negros primordiales; sin embargo, ciertas restricciones observacionales excluyen la existencia de una población demasiado importante de agujeros negros gigantes 9. Si existiesen por ejemplo, agujeros negros mucho mayores que un millón de masas solares, en el halo de las galaxias espirales —es decir fuera del bulbo y del disco, en los que se encuentra reunida principalmente la materia visible, como se verá en el capítulo 17—, su presencia se manifestaría por lo menos de dos formas: en primer lugar, desdoblarían las imágenes de los astros lejanos actuando como lentes gravitatorias; en segundo lugar, originarían un engrosamiento de los discos galácticos confiriendo velocidad a las estrellas que se encuentran en ellos. Ahora bien, no se ha observado ninguno de estos dos fenómenos. En contrapartida, no se excluyen los agujeros negros primordiales de masa inferior a un millón de masas solares. Si la mayoría de las galaxias, gigantes o no, abrigan en su centro agujeros negros gigantes, estos últimos son verosímilmente de origen primordial y, puesto que se han formado en los albores de la historia del Universo, quizás han sido los gérmenes que han permitido la ulterior formación de las galaxias.

La materia oscura Uno de los primeros problemas no resueltos de la Cosmología moderna es el de la masa fallante. Algunas observaciones del movimiento de las galaxias indican que la materia «visible» (tanto en los dominios ópticos como radio, infrarrojo o X) sólo constituyen una fracción de la materia total. Un simple ejemplo ilustrará el problema. Numerosas galaxias observadas se reagrupan en cúmulos formando estructuras ligadas gravitacionalmente, que no se disuelvan en el medio cósmico 8

Una explicación más normal toma en consideración las «estrellas malogradas», es decir, cuerpos de una centésima de masa solar, muy poco luminosos pues no habrían podido producir reacciones termonucleares. 9 Como se verá en el capítulo 17, es posible que casi todas las galaxias abriguen en su núcleo un agujero negro muy masivo; pero, para resolver el problema de la "lasa que falta, sería necesario que numerosos agujeros negros gigantes existiesen también fuera de los núcleos galácticos.

Esta última es, en efecto, la única fuente de radiación electrónica presente en el cielo.

cósmico ambiente; ahora bien, si los cúmulos se redujesen únicamente a las galaxias y al gas intergaláctico detectados, su gravitación no sería suficientemente fuerte para mantener su cohesión. Así pues debe existir una materia oscura, invisible a la radiación electromagnética, pero cuya acción gravitatoria «liga» los cúmulos de galaxias. Para constituir la materia oscura acuden con naturalidad a la mente 8 los agujeros negros primordiales; sin embargo, ciertas restricciones observacionales excluyen la existencia de una población demasiado importante de agujeros negros gigantes 9. Si existiesen por ejemplo, agujeros negros mucho mayores que un millón de masas solares, en el halo de las galaxias espirales —es decir fuera del bulbo y del disco, en los que se encuentra reunida principalmente la materia visible, como se verá en el capítulo 17—, su presencia se manifestaría por lo menos de dos formas: en primer lugar, desdoblarían las imágenes de los astros lejanos actuando como lentes gravitatorias; en segundo lugar, originarían un engrosamiento de los discos galácticos confiriendo velocidad a las estrellas que se encuentran en ellos. Ahora bien, no se ha observado ninguno de estos dos fenómenos. En contrapartida, no se excluyen los agujeros negros primordiales de masa inferior a un millón de masas solares. Si la mayoría de las galaxias, gigantes o no, abrigan en su centro agujeros negros gigantes, estos últimos son verosímilmente de origen primordial y, puesto que se han formado en los albores de la historia del Universo, quizás han sido los gérmenes que han permitido la ulterior formación de las galaxias . Una explicación más normal toma en consideración las «estrellas malogradas», « decir, cuerpos de una centésima de masa solar, muy poco luminosos pues no "abrían podido producir reacciones termonucleares. Como se verá en el capítulo 17, es posible que casi todas las galaxias abriguen en su núcleo un agujero negro muy masivo; pero, para resolver el problema de la masa que falta, sería necesario que numerosos agujeros negros gigantes existiesen también fuera de los núcleos galácticos.

Capítulo 16

EL ZOO DE LAS ESTRELLAS X

El zoo de las estrellas X

Demasiado grueso para evaporar su masa por radiación térmica, demasiado delgado para representar eficazmente el papel de lente gravitatoria sobre el fondo de los lejanos astros, un agujero negro estelar perfectamente aislado está condenado a la invisibilidad. Sin embargo, no está nunca completamente desnudo. Sumergido en el medio interestelar, drena la materia ambiente y una de sus funciones esenciales es alimentarse de ella. Un agujero negro que «come» deja siempre restos: la materia engullida señala su desaparición por una emisión de radiación electromagnética. Pero el gas interestelar es demasiado tenue para producir una luminosidad notable. Un agujero negro de diez masas solares, que consumiese poco a poco el gas que le rodea, tendría el pálido brillo de ciertas enanas blancas aisladas y podría a lo mejor detectarse a una distancia de algunos años-luz. Ahora bien, incluso si el número total de agujeros negros estelares en nuestra Galaxia alcanzase los mil millones, el más cercano de ellos no se encontraría probablemente a menos de cien años-luz... ¿Qué les queda entonces a los agujeros negros estelares para hacerse notar por los astrónomos? ¡La vida en pareja! Puesto que las estrellas débiles están en minoría, como residuos estelares, los agujeros negros no escapan a la suerte común y muchos entre ellos deben pertenecer a sistema bínanos. Ahora bien, el agujero negro se transfigura desde el momento que vive en pareja, más aún que sus parientes compactos la enana blanca y la estrella de neutrones, marcando su matrimonio con una «huella» bien personal. El descifrar esta huella se ha convertido en una de las más fecundas vías de la astrofísica en estos últimos veinte años.

El espectro de la vida en pareja Agujero negro o no, la binaridad de las estrellas se presenta frecuentemente; en la mayor parte de los casos sólo es visible en el telescopio, una componente. ¿Cómo puede el astrofísico descubrir si una estrella está o no emparejada? La gravitación proporciona la clave del problema. En un sistema doble, los acompañantes giran en torno al centro de gravedad común obedeciendo las leyes de la Mecánica Celeste. En ciertas parejas muy próximas al Sistema Solar, los astrónomos ven directamente ejecutar a los dos componentes su lento ballet elíptico. Pero, más a menudo, los movimientos orbítales sólo pueden ponerse en evidencia gracias a las técnicas muy precisas de la espectroscopia. Como la del Sol, la luz visible de las estrella es una mezcla de los colores del arco iris, yendo del rojo para las grandes longitudes de onda al violeta en las cortas longitudes de onda. El espectrógrafo es el aparato que, a semejanza del prisma, es capaz de descomponer sobre una pantalla la luz visible de una estrella en sus diferentes colores. El espectro de las estrellas así obtenido presenta una graduación continua de colores a la que se superponen rayas oscuras muy estrechas, denominadas rayas de absorción. La existencia de una raya de absorción con una frecuencia particular traduce el hecho de que la luz recibida con esta frecuencia tiene una intensidad disminuida. ¿Por qué tal debilitamiento? La atmósfera de una estrella está compuesta por átomos bien determinados: hidrógeno, helio, carbono, oxígeno, calcio, etc. Cada átomo tiene la facultad de absorber la luz a ciertas longitudes de ondas características. Son los electrones precisamente, en órbita alrededor de los núcleos atómicos, quienes capturan parcialmente la energía de los fotones incidentes y

saltan a niveles de energía superiores. La luz que surge del caliente núcleo de las estrellas sólo llega a los astrónomos después de haber pasado a través del filtro de los átomos intermedios, donde ha perdido parcialmente su intensidad en ciertas longitudes de onda. Es posible por otra parte establecer en el laboratorio el «espectro de referencia» de cualquier átomo individual. Por comparación, las rayas de absorción de los espectros estelares proporcionan pues la «firma» de la composición química de las envolturas estelares, informándonos sobre su temperatura de superficie, su tamaño, su luminosidad intrínseca, etc. Existe una categoría de estrellas dobles para las que sólo es visible por el telescopio una componente, que presenta un espectro cuyas rayas oscilan periódicamente en torno a una posición media. Se les llama binarias espectroscópicas, pues el desplazamiento de las rayas de su espectro testifica el movimiento de la estrella alrededor de un compañero oscuro. Un cierto desplazamiento Al desplazamiento aparente de las frecuencias electromagnéticas, debido al movimiento de una fuente luminosa respecto al receptor, se le designa como efecto Doppler 1: según que la fuente se acerque o se aleje, las frecuencias recibidas aumentan o disminuyen respecto a las frecuencias emitidas, siendo el desplazamiento tanto más importante cuanto mayor es la velocidad de la fuente (Figura 57). Una ilustración humorística del efecto Doppler es la anécdota del automovilista que comparece ante un tribunal por haberse saltado un semáforo en rojo. El mal conductor, que se cree astuto, se justifica explicando que debido a la velocidad de su vehículo el color rojo del semáforo le ha parecido verde. Pero el juez recuerda sus cursos de física. Efectúa un rápido cálculo en un trozo de papel y comprueba que, para que la frecuencia del color rojo haya podido desplazarse hasta la frecuencia del color verde por el efecto Doppler, hubiera sido preciso que la velocidad del automovilista fuese de 100.00 km/s. Entonces el juez le dice socarronamente sonriendo: «acepto su argumento... pero le condeno por exceso de velocidad.» El efecto Doppler es también el principio fundamental del «radar» de los policías de tráfico, tan aborrecido por los automovilistas con prisa. En astronomía encuentra aplicaciones más nobles. El astrónomo viene a ser como un ciego de oído ejercitado que, conocedor de la frecuencia de referencia de la sirena de los bomberos, fuese capaz de estimar la velocidad y dirección de sus vehículos. Busca medir los movimientos de los astros «escuchando» su luz por el espectrógrafo. Este procedimiento es particularmente fructífero para revelar la naturaleza binaria de estrellas sin compañero aparente. Es evidente que, en un sistema doble, el movimiento de revolución orbital de la estrella visible en torno al centro de gravedad común se traduce por el hecho de que unas veces la estrella se acerca al astrónomo, y otras veces se aleja de él, mientras que su compañero oscuro hace lo contrario 2. La frecuencia de la radiación recibida debe pues aumentar (hacerse «más azul») durante la fase en que la Excepción hecha de la improbable situación en que estuviésemos situados exactamente en la dirección perpendicular al plano orbital del sistema.

estrella se acerca, y disminuir (hacerse «más roja») en la fase en que la estrella se aleja. Este desplazamiento, al afectar de la misma forma al conjunto del espectro, lleva a la conclusión de que las rayas de absorción, de fácil referencia, deben desplazarse en bloque tanto hacia el azul, como hacia el rojo, oscilando alternativamente entre dos posiciones extremas (Figura 58). Tal comportamiento es la verdadera seña de identidad de las binarias espectroscópicas. Una vez atestiguada la binaridad, el astrónomo debe determinar a continuación la naturaleza del compañero oscuro. Una estrella in visible no es necesariamente un agujero negro, ¡faltaría más! En primer lugar puede tratarse de una estrella de masa muy modesta, de las que probablemente existe un gran número, cuya luminosidad aparente es demasiado débil para ser percibida —ya sea porque la estrella está lejana, o porque esté borrada por el brillo de su compañero, a semejanza de una luciérnaga que deja de ser visible cuando se le acerca una luz. El compañero oscuro puede ser también una estrella normalmente masiva pero gravitatoriamente colapsada. El bestiario de los residuos estelares comprende las enanas

blancas, las estrellas de neutrones y los agujeros negros. Podría creerse entonces que la «marca» del agujero negro sólo es una cuestión de masa; se sabe en efecto que las enanas blancas y las estrellas de neutrones no pueden sostener más de dos o tres masas solares. Pero el desenmascaramiento de los agujeros negros en los sistemas binarios está sembrado de trampas. Así, una estrella masiva, caliente y brillante, puede permanecer obstinadamente invisible si está rodeada por una envoltura de polvo

oscurecedor. Precisamente se conoce un caso así. Epsilon Aurigae es una binaria espectroscópica cuyo compañero oscuro tiene una masa cercana a 8 M☼. Eso es mucho más de lo que puede soportar una enana blanca o una estrella de neutrones. Sin embargo, la componente visible se eclipsa cada 27 años y el eclipse dura dos años enteros. Un agujero negro sería demasiado pequeño (25 km de radio) para suscitar eclipses de tan larga duración. El compañero de Epsilon Aurigae no es otra cosa que una gruesa estrella enterrada bajo el polvo. Pero el cazador de agujeros negros tiene otras pistas. Sabe en particular que la binaridad influencia profundamente el destino de las estrellas, sobre todo cuando una de ellas está condensada gravitatoriamente. Aislados, los residuos estelares, de superficie minúscula, son invisibles la mayor parte de las veces (excepción hecha de los pulsares radio). Emparejadas, se transfiguran. En el caso de las enanas blancas, la binaridad es fuente de brillantes episodios tales como las variables cataclísmicas y las novas (ver capítulo 5). En el caso de las estrellas de neutrones y de los agujeros negros, la transformación es todavía más espectacular. Genera un verdadero zoo de fenómenos astronómicos de alta energía, cuya característica común consiste en darse a conocer en el dominio de los rayos X. El advenimiento de la astronomía de rayos X a principios de los años 1970 ha revolucionado nuestra visión del Universo. Observatorios volantes La astronomía de rayos X sólo ha podido emerger en la era espacial. En efecto los rayos X son absorbidos por la atmósfera, y el astrónomo tiene que enviar sus detectores al espacio. Un detector de rayos X no se parece a un telescopio óptico tradicional, fundado sobre la

utilización de espejos que reflejan y amplifican la luz. La energía transportada por la radiación X (y a fortiori por la radiación gamma) es tan grande que los fotones, en vez de ser reflejados por un espejo, penetrarían en él y se hundirían en su substancia. Para captar los rayos X, los astrónomos utilizan detectores específicos, que responden a los efectos de los fotones de alta energía cuando estos pasan a través de placas de metal electrizadas o de gas 3. 3 Los célebres «contadores Geiger», que permiten detectar la radiactividad en la superticie de la Tierra, funcionan basándose en un principio análogo.

Los primeros instrumentos se instalaron a bordo de cohetes o de globos. Se descubrieron numerosas fuentes de rayos X (fuentes X), cada una de ellas designada según el nombre de la constelación en la que se encontraba (por ejemplo, Scorpius X-l fue la primera fuente X descubierta en la Constelación del Escorpión). La imagen relativamente tranquila del Universo que los astrónomos se habían forjado observando por las ventanas de la radiación visible y de onda radio empezó a desmoronarse. Pero cuando sonó la hora de los satélites artificiales, que permitían escrutar el cielo X de modo permanente, el cuadro basculó completamente. Se dieron cuenta de repente que en todas partes del Universo fuentes tan diversas como las estrellas, galaxias, o cúmulos de galaxias emitían un derroche de radiación electromagnética transportando de cien a cien millones de veces más energía que la luz visible. Los cohetes presentan algunas ventajas respecto a los satélites. Son mucho menos caros y más rápidos de preparar. Algunos meses son suficientes para realizar un proyecto de experiencia en cohete, mientras que transcurren vanos años entre el día en que se hace una proposición de experiencia en satélite a los organismos financiadores y el día del lanzamiento. Pero los cohetes presentan el grave inconveniente de volver a caer al suelo, no permitiendo más que unos minutos de observación. Así se explica que el tiempo de observación del cielo X acumulado en el curso de la era de los cohetes sobrepasó apenas una hora, mientras que un satélite de observación es capaz de funcionar durante varios años. El satélite Libertad La comunidad astronómica soñaba con un satélite X capaz de escrutar el cielo durante las 24 horas. Gracias al celo de Riccardo Giacconi y de su equipo de la Universidad de Harvard, este deseo se satisfizo el 12 de diciembre de 1970. El satélite núm. 42 de la serie de los «Explorer» se lanzó desde una plataforma del océano Índico a lo largo de las costas de Kenia, en una órbita ecuatorial. Para conmemorar el séptimo aniversario de la independencia del país, el satélite se bautizó como Uhuru, palabra swahili que significa «Libertad». Uhuru es uno de los más hermosos florones en la armada de satélites X pues ha dibujado la primera carta precisa del cielo en rayos X. Un detector X no permite por sí solo localizar la posición de una fuente más que con una mediocre precisión. Para paliar este inconveniente, Uhuru llevaba dos detectores, uno anterior y otro posterior, que barrían la totalidad del cielo a medida que el satélite giraba lentamente sobre sí mismo. En el instante en que una fuente X pasaba por su visual las señales se transmitían al suelo y, al conocer la orientación del satélite, se podía deducir de ello la dirección de la fuente con mucha mayor precisión, asignándola al interior de una pequeña zona del cielo llamada «caja de error». Uhuru funcionó así hasta el agotamiento de sus baterías en la primavera del año 1973. Su cosecha fue considerable pues reveló cerca de 350 fuentes de radiación X. Detrás de Uhuru han seguido numerosos satélites consagrados a la observación del cielo en

rayos X, entre ellos la serie de los HEAO (High Energy Astronomical Observatory). Entre estos últimos, el núm. 2 dio los resultados más espectaculares y fue bautizado como Einstein, para conmemorar en 1979 el centenario de quien, a su manera, había abierto nuevas ventanas en el cielo: las del espíritu. Los pulsares X Entre las fuentes X descubiertas gracias a los observatorios volantes más de la mitad pertenecen a nuestra Galaxia; las otras son núcleos de galaxias activas o gas muy caliente de los grandes cúmulos de galaxias. Entre las fuentes galácticas, la mayoría está asociada a diversas formas de estrellas colapsadas: restos de supernovas en expansión en el medio interestelar, enanas blancas, y sobre todo sistemas binarios que contienen una estrella de neutrones. A comienzos de 1971, Uhuru detectó Centaurus X-3, una fuente X variable cuya luminosidad media es de diez mil veces superior a la que el Sol emite en todas las longitudes de onda. La radiación de Centaurus X-3 presenta además impulsos regularmente espaciados 4,84 segundos. Cuando se trata de períodos tan cortos, inevitablemente se piensa en una estrella de neutrones en rotación rápida, por analogía con los pulsares radio. Pero Centaurus X-3 se distingue por el hecho de que, cada 2,087 días, su emisión X se extingue durante casi 12 horas. Esto significa que esta fuente forma parte de un sistema binario «con eclipses», correspondiendo su ocultamiento a la fase en que el pulsar pasa detrás de un compañero gigante. Una nueva y fructífera rama de la astronomía se abría: la de las fuentes X binarias. A continuación de Centaurus X-3, fueron descubiertos rápidamente otros «pulsares X». Uno de los más interesantes es Hércules X-l, que fluctúa periódicamente cada 1,24 segundos y cuya naturaleza binaria se atestigua por varios argumentos independientes. En primer lugar, su luminosidad X permanece oculta durante 6 horas cada 1,7 días. Por otra parte, la medida extremamente precisa de los tiempos de llegada de sus impulsos X muestra fluctuaciones regulares en torno al período medio de 1,24 segundos, siendo debido el desplazamiento temporal al movimiento orbital alrededor de un compañero, según un período que coincide exactamente con el de los eclipses. Para confirmar todo ello, observaciones ópticas muy detalladas de Hércules X-l han terminado por revelar la presencia del compañero en el dominio visible, una estrella cuya luminosidad se eclipsa igualmente cada 1,7 días. Hércules X-l es pues una especie de binaria espectroscópica «a contrapelo», en sentido de que la componente compacta se ha descubierto en primer lugar gracias a su emisión X, y ha ayudado a revelar la componente óptica «normal». ¿Cómo se explica el mecanismo de emisión de rayos X en las fuentes binarias? Un indicio esencial proviene del hecho de que estos pares tienen todos períodos orbitales cortos, significando que la distancia entre los compañeros debe ser muy pequeña. Esta promiscuidad coloca a la estrella de neutrones en condiciones de capturar el gas de su compañero, utilizando un «aspirador gravitatorio» que funciona de la manera siguiente. Si, alrededor de una estrella célibe, se buscan los puntos en que el campo gravitatorio tiene un valor constante dado, se obtienen unas esferas con centro en la estrella. Si se hace el mismo ejercicio para un sistema doble, se encuentran superficies más complicadas (Figura 59). Una de ellas es el lugar de neutralidad gravitatoria entre los dos acompañantes. Tiene la forma de un ocho donde cada uno de los bucles rodea a una estrella y toma el nombre de lóbulo de Roche, según el apellido de un matemático francés de la universidad de Montpellier que fue el primero que estudió el problema en los años 1850. Una estrella compacta tal como una estrella de neutrones no es más que un punto minúsculo en su lóbulo de Roche. Por el contrario, una estrella no colapsada puede perfectamente ocupar una buena parte de su lóbulo de Roche, incluso desbordarlo si se

encuentra en su fase gigante roja. Los pulsares X tales como Centaurus X-3 y Hércules X-l encuentran explicación precisamente en un sistema binario en el que una de sus componentes es una estrella de neutrones y la otra una estrella gigante que llena su lóbulo de Roche.

Esta última puede perder fácilmente materia, principalmente por el punto de contacto entre los dos lóbulos. El gas, transferido de un lóbulo a otro, pasa a la zona de influencia de la estrella de neutrones. En Centaurus X-3 se estima que una masa de gas equivalente a la de la Luna se transfiere cada año de la estrella gigante a la estrella compacta. Como en un pulsar radio, la estrella de neutrones de un pulsar X puede girar rápidamente y poseer un campo magnético enorme, inclinado sobre el eje de rotación. En este caso, el gas arrancado al compañero no cae directamente en la estrella de neutrones sino que es

lentamente arrastrado por las fuerzas centrífugas en un movimiento de «espiral». El gas puede formar entonces un disco de acrecían más o menos espeso, que se interrumpe a determinada distancia de la superficie de la estrella de neutrones, cuando el campo magnético adquiere una energía superior a la energía rotacional del gas. Así, el gas es arrancado del disco y canalizado por las líneas de campo en dirección de los polos magnéticos. La emisión de rayos X es generada por el impacto del gas con la corteza sólida de la estrella. Es fácil comprender por qué un campo gravitatorio tiene la facultad de convertir energía en radiación si se recuerda el principio de las centrales hidroeléctricas. Al caer de una cierta altura, el agua convierte primero la energía gravitatoria en energía cinética; adquiere una gran velocidad y cuando golpea en las palas de una turbina, convierte su energía cinética en energía mecánica de rotación. Debido a los efectos de inducción magnética, la energía mecánica se convierte finalmente en energía eléctrica y en radiación. En toda esta cadena, el motor es ciertamente el campo gravitatorio del planeta. Actúa de la misma manera en la superficie de las estrellas. Bien entendido, para una determinada altura de caída, la conversión de masa en energía es tanto más eficaz cuanto más intenso es el campo gravitatorio. Una bola de 10 g que cae al suelo libera un poco de calor y de radiación infrarroja. Si cae en la superficie de una enana blanca, la energía gravitatoria liberada es mucho mayor y se manifiesta en forma de luz visible o ultravioleta. En la superficie de una estrella de neutrones, la gravedad es tan gigantesca que la velocidad de caída alcanza 100.000 km/s. En estas condiciones, 10 g de gas liberan bajo forma de radiación X una energía equivalente a la bomba de Hiroshima. En un pulsar X, son millones de millones de toneladas de gas que, cada segundo, vienen a aplastarse en los casquetes magnéticos de la estrella de neutrones. Los casquetes, cuyo diámetro es de alrededor de 1 km son calentados a una temperatura de 100 millones de grados y ¡emiten rayos X con una luminosidad diez mil veces mayor que la emitida en todas las longitudes de ondas por el Sol! Teniendo bien en cuenta que el fenómeno de pulsar propiamente dicho se debe al barrido del haz radiante, modulado por la rotación propia de la estrella de neutrones. 269

El zoo de las estrellas X

Los «fulgurantes» de rayos X (fuentes de rayos X transitorias) Las fuentes de rayos X binarias no se reducen solamente a los pulsares. En muchos casos, la emisión no es regular sino errática. En vez de un impacto directo sobre los casquetes polares, puede provenir de zonas calientes del disco de acreción, no produciéndose el fenómeno de pulsar. Por otra parte, el compañero de la estrella de neutrones no tiene por qué ser necesariamente masivo y gigante, sino que puede igualmente ser una estrella enana, siendo la transferencia de materia en este caso mucho menos abundante (Figura 60). Finalmente y sobre todo, en ausencia de toda periodicidad, ya no es posible afirmar que la estrella compacta es una estrella de neutrones. Los agujeros negros estelares deben buscarse en esta categoría de fuentes de rayos X erráticas, análogas a las variables cataclísmicas para el caso de enanas blancas (ver capítulo 5). Los satélites han detectado a partir de 1975 estrellas agitadas por brutales erupciones de rayos X durante algunos segundos. Se trata de estrellas fulgurantes 4. En la actualidad se conocen varias decenas de fuentes de este tipo, la mayor parte localizadas en nuestra Galaxia. Los fulgurantes son realmente análogos a las novas, pero liberan mucha más energía. Son verosímilmente sistemas binarios próximos con transferencia de masa, radicando la diferencia con las novas en que en un «fulgurante» el cadáver estelar es una estrella de neutrones o un agujero negro en vez de ser una enana blanca.

Cuando se trata de una estrella de neutrones el mecanismo responsable de los «fulgores» puede ser una explosión termonuclear de superficie. Como con las enanas blancas, la gravitación representa el papel de un catalizador de reacciones nucleares. Pero la colosal gravedad de las estrellas de neutrones permite una cocción más a fondo que con las enanas blancas (que sólo permiten la combustión explosiva de hidrógeno). En el estado «tranquilo» de la fuente de rayos X, el hidrógeno acumulado en capas densas y muy calientes en la superficie de la estrella de neutrones, se transforma rápidamente en helio, pero de manera no explosiva. A su vez, el helio recubre la superficie y sólo cuando la capa alcanza 1 m de espesor se desencadena la fusión explosiva, originando el «fulgor» propiamente dicho. No obstante, pueden emitirse erupciones de radiación X por otro mecanismo, como consecuencia de inestabilidades en un disco de acreción. No hay ninguna necesidad pues de evocar una superficie dura de estrella de neutrones, un agujero negro sirve perfectamente. 4

Nota del revisor: Aunque no es una terminología universalmente aceptada, hemos adoptado el término «fulgurantes» como traducción del inglés «bursters», y el de «fulgor» para «burst». El autor J. P. Luminet acuña los términos «sursauteurs» y «sursaut», respectivamente. Las estrellas «fulgurantes» de rayos X se denominan también fuentes de rayos X transitorias.

Algunos «fulgurantes» son fuentes permanentes de rayos X (es decir que emiten siempre a un determinado nivel), mientras que otros, transitorios, no se hacen visibles en rayos X más que en el transcurso de una erupción. Por otra parte, del mismo modo que las novas recurrentes, algunos «fulgurantes» explotan varias veces, pero a una cadencia verdaderamente frenética. Se conoce un «fulgurante» ultrarrápido para el que el intervalo medio entre dos erupciones sólo es de algunas decenas de segundos. Pero recurrencia no significa en modo alguno estricta periodicidad. La perfecta regularidad de un pulsar proviene de la rotación de la estrella de neutrones, la recurrencia de un «fulgurante» proviene de la detonación repetitiva del helio acumulado en su superficie. Se

comprueba que los pulsares no tienen erupciones y que los «fulgurantes» no pulsan. Por otra parte, los «fulgurantes» no son forzosamente recurrentes. Esto sugiere la idea de que los «fulgurantes» podrían ser en la mayor parte de los casos sistemas binarios más evolucionados que los pulsares, conteniendo, o bien estrellas de neutrones tan viejas que han perdido su campo magnético, o bien agujeros negros en la superficie de los cuales no es posible que haya acumulación alguna de materia. Las estrellas de rayos X, por muy espectaculares que sean, son excesivamente raras y se estima que en una media de mil millones de estrellas, una sola entre ellas emite lo esencial de su luz bajo forma de rayos X. Nuestra Galaxia no abriga más que un centenar de dichas fuentes. Esta rareza se explica por la brevedad de la fase de emisión X en un sistema binario: diez mil años solamente, un relámpago, comparado con la duración de las estrellas (Figura 61). Al cabo de este lapso de tiempo, la estrella compañera se ha dilatado hasta desbordar su lóbulo de Roche. La afluencia de gas sobre la estrella compacta se hace entonces tan grande que acaba por ahogar h fuente de rayos X. Los «fulgurantes» de rayos gamma Hay fuentes transitorias mucho más misteriosas cuyos «fulgores» se manifiestan en el dominio de los rayos gamma. Los «fulgurantes de rayos gamma» forman una comunidad completamente distinta a la de los «fulgurantes de rayos X»: hasta este momento en efecto, ninguna observación ha permitido asociar un «fulgurante de rayos X» a un «fulgurante de rayos gamma». Como es frecuente en astronomía, su descubrimiento fue fortuito. Después de la firma del tratado que prohibía las experiencias nucleares sobre la superficie, firmado en 1963 entre los Estados Unidos y la Unión Soviética, los americanos habían lanzado una serie de satélites militares llamados Vela, cuya misión era vigilar la aplicación del tratado, es decir detectar los rayos gamma eventualmente emitidos por bombas nucleares soviéticas clandestinas. Con gran estupor por parte de los militares, hubo una verdadera avalancha de datos en Los Álamos. Felizmente para la paz mundial, los sabios americanos demostraron a los militares que estos «fulgores gamma» no podían venir del suelo, sino del espacio. Era sencillamente uno de los descubrimientos astronómicos más grandes de la década. En la actualidad, han sido detectados más de cien «fulgurantes de rayos gamma». Pero en el círculo cerrado de los «fulgurantes de rayos gamma» reina la anarquía más completa. La duración de las erupciones varía entre algunos milisegundos y varias decenas de segundos. Las energías puestas en juego corresponden a temperaturas

de superficie de 1.000 millones de grados; como para los «fulgurantes de rayos X», tales temperaturas sugieren el calentamiento intermitente de la superficie de una estrella de neutrones provocado por la caída de materia. El problema mayor de la astronomía de rayos gamma es la falta de resolución de los detectores gamma; ya no era bueno para los detectores de rayos X, es todavía peor para los

detectores gamma. Es por consiguiente muy difícil localizar las fuentes gamma e identificarlas con astros ya conocidos en otras longitudes de onda. Se puede sin embargo estimar su posición conjugando las observaciones de varios satélites (al menos tres), lo que permite definir las «cajas de error» en el interior de las que deben encontrarse los «fulgurantes de rayos gamma». El problema con los «fulgurantes de rayos gamma» es que en el interior de las cajas de error no se observa en la mayor parte de los casos ningún objeto particular. Esta situación inspira a los teóricos la idea de que los «fulgurantes de rayos gamma» pudieran ser estrellas muy poco luminosas, lo que explicaría por qué los «fulgurantes de rayos gamma» permanecen invisibles fuera de las erupciones. En este modelo, el «fulgor» mismo podría ser debido a una erupción termonuclear de superficie que resultase de la acumulación de gas, pero con ritmos mucho menores que en los «fulgurantes de rayos X». Si uno recuerda el mecanismo de las novas (p. 97) y de las supernovas tipo I (p. 119), se comprueba que paradójicamente los ritmos de acreción menores en estrellas compactas producirían los fenómenos más energéticos; las supernovas tipo I son en efecto más potentes que las novas y los «fulgurantes de rayos gamma» son más que los «fulgurantes de rayos X». Hay un caso célebre de «fulgurantes de rayos gamma» para el que se conoce una contrapartida óptica pero, si la identificación es correcta, genera un enorme problema teórico. Se trata de una erupción observada el 5 de marzo de 1979, en los parajes de un resto de supernova situado aproximadamente a 200.000 años-luz. A tal distancia, la energía intrínseca de la erupción debería ser un millón de veces mayor que la de otras erupciones gamma galácticas, lo que es totalmente incomprensible. Puede suceder que la identificación propuesta sea errónea, porque la coincidencia entre el «fulgurante de rayos gamma» y el resto de supernovas sea puramente fortuita, » que sea preciso invocar mecanismos físicos diferentes a la acreción en una estrella de neutrones. Los «fulgurantes de rayos gamma» siguen siendo uno de los grandes enigmas de la atrofísica de hoy..-

A la búsqueda del animal raro Nuestro paseo por el zoo de las estrellas de rayos X, nos ha enseñado que los agujeros negros estelares deben buscarse en primer lugar en las fuentes de rayos X binarias que no son ni periódicas ni recurrentes. Una primera «criba» de los candidatos consiste en medir las fluctuaciones de la luminosidad de rayos X en muy cortos intervalos de tiempo. La razón es la siguiente. Toda variación del brillo de una fuente cualquiera significa que la fuente modifica su configuración —por ejemplo se hincha o se deforma. Puesto que nada puede viajar más rápido que la luz, una fuente luminosa variable no puede cambiar su brillo global en un tiempo menor que el tiempo que tarda la luz en atravesarla. Como la luz recorre 300 km en un milisegundo, toda fuente que fluctúe en un período menor de un milisegundo debe ser pues extremadamente compacta. ¿A qué fenómeno pueden ser debidas las variaciones del brillo? Tomemos el ejemplo de un agujero negro estelar. Su diámetro no es más que de algunas decenas de kilómetros, pero no es esta amplitud lo que importa cuando se consideran las fluctuaciones; en efecto, la fuente de radiación X no se debe al impacto de materia sobre el agujero negro, que no tiene más que una superficie geométrica sin consistencia, sino que proviene del disco de acreción. Sus regiones internas son muy calientes y agitadas por turbulencias, un poco como el agua cuando entra en ebullición. El disco es localmente inestable y «burbujas» de gas emergen episódicamente, que son calentadas durante breves instantes a varios cientos de millones de

grados y lanzan copiosas bocanadas de rayos X (Figura 62). Para deducir de ello el tiempo característico de las fluctuaciones, es preciso tomar en cuenta el hecho de que el disco de acreción no toca la superficie del agujero negro. Existe una región que rodea al agujero negro en la que las órbitas circulares están prohibidas; el gas del disco, una vez que alcanza el borde interno, se zambulle pues en caída libre a través de este región prohibida y cae tan rápido en e* agujero negro que no tiene tiempo de emitir radiación. Se concluye de ello que las burbujas, responsables de las fluctuaciones de luminosidad, no pueden formarse más que a una distancia de algunos radios de Schwarzschild del agujero negro. Allí, su destino es breve; efectúan una revolución completa en un mini-segundo, a una velocidad próxima a la de la luz. Después de algunas vueltas, estallan se redisuelven en el gas ambiente y cesa la fluctuación de radiación.

Observado de lejos, el sistema presenta variaciones del flujo de radiación X, que llega en ráfagas cortas. Durante algunos años, se ha querido ver en este tipo de variaciones ultrarrápidas de la luminosidad de una fuente de rayos X binaria una «firma» definitiva de la presencia de un agujero negro estelar. Es así como Circinus X-l, asociada a un resto de supernova datada en cien mil años, fluctuaba tan rápidamente que era considerada como un probable agujero negro. Era una gran equivocación. Los progresos de la instrumentación astronómica, que permiten una resolución temporal más fina, han puesto en evidencia una recurrencia en las erupciones de Circinus X-l y de otras fuentes análogas, probando que se trata de estrellas de neutrones. Para descubrir agujeros negros en fuentes de rayos X, es preciso encontrar otra cosa mejor que su carácter febril.

Pesaje de estrellas Mide mil veces y corta una sola vez.

Proverbio Turco

El arma absoluta del cazador de agujeros negros es la balanza. Se sabe en efecto que, mediante la aceptación de la teoría de la Relatividad General y de algunas hipótesis razonables sobre el estado de la materia densa, la masa máxima de una estrella de neutrones estable no puede sobrepasar 3 M☼. Si el «pesaje» de estrellas da un valor superior, la física moderna no ofrece otra posibilidad que el agujero negro. El pesaje separado de cada una de las componentes de un sistema binario es desafortunadamente imposible. El astrónomo no dispone más que del espectro de la componente óptica —suponiendo que no esté ahogado en el espectro del disco de acreción como a menudo es el caso. El desplazamiento regular de las rayas espectrales por efecto Doppler está ligado al período de revolución orbital de la binaria, período que permite calcular una cierta «función de masa» por simple aplicación de las leyes de la Mecánica Cuántica. La función de masa comporta tres incógnitas: las masas de las dos componentes y la inclinación del plano orbital respecto a la dirección de observación. Para ir más lejos, el astrónomo debe hacer uso de un cierto número de aproximaciones. La espectroscopia de la componente óptica permite deducir su «tipo espectral» (ver Apéndice 1) y, tenida en cuenta su luminosidad, permite determinar sus parámetros físicos: masa, radio, grado de evolución. Sin embargo, esta manera de pesar estrellas basándose únicamente en su tipo espectral está cuajada de incertidumbre. La otra incógnita, la inclinación del plano orbital respecto a la dirección de observación, es ignorada, generalmente, excepto en el caso de ciertas binarias eclipsantes que permiten colocar límites a esta inclinación 5. Mediante estas aproximaciones, el astrónomo puede finalmente deducir la masa de la estrella compacta que le interesa. El valor obtenido se sitúa en una cierta «barra de error». Hacia la mitad de la barra está la masa más probable; los extremos, que corresponden a las hipótesis respectivamente más «optimistas» y más «pesimistas», son menos probables. Pero, como la prueba misma de la existencia de los agujeros negros está en juego, es necesario un gran rigor y solamente se tienen en cuenta los candidatos para los que la barra de error está situada enteramente por encima de las 3 M☼ fatídicas. En estos momentos, tres fuentes de rayos X binarias satisfacen todos los criterios del agujero negro. La existencia o la ausencia de eclipses indican que el sistema es visto «más bien de costado» o «más bien por encima».

Cygnus X-l Cygnus X-l fue descubierta primero por un detector X, a bordo de un cohete lanzado en 1965. No podía escapar a la perspicacia del satélite Uhuru. En marzo y abril de 1971, el satélite registró una variación rápida de la luminosidad de rayos X. Por suerte, esta variación estaba acompañada por la aparición de una fuente de ondas radio. Contrariamente a los detectores de rayos X, los radiotelescopios pueden localizar las fuentes con una gran precisión. La inopinada emisión de ondas radios por Cygnus X-l ha permitido pues determinar su dirección. Coincide con la de una estrella ópticamente visible conocida desde hace tiempo con el nombre de HDE 226 868. Es una estrella brillante cuyo tipo espectral indica que se trata de una gigante azul, caliente y masiva: entre 25 y 40 masas solares. Incapaz por ella misma de emitir grandes cantidades de radiación X, HDE 226 868 debe estar dotada de un acompañante compacto que, al arrancarle gas y calentarlo a varios

millones de grados, es responsable de la fuente Cygnus X-l. Para confirmar esta hipótesis, hay que analizar el espectro de HDE 226 868 y detectar el vaivén periódico que caracteriza las rayas de las binarias espectroscópicas. El resultado es concluyente; proporciona el período orbital del sistema, 5,6 días mientras que el desplazamiento máximo de las rayas permite calcular el tamaño de la órbita. Esta es extremadamente ceñida: treinta millones de kilómetros; si representamos HDE 226 868 por un balón de fútbol, ¡su compañero Cygnus X-l sería sólo un grano de arena girando a algunos centímetros de su superficie! Por otra parte, la ausencia de eclipses permite concluir que la inclinación del plano orbital respecto a la dirección de observación es superior a 55°. Conociendo todos estos parámetros, es fácil deducir la masa de Cygnus X-l. Se efectúan medidas de manera regular desde hace quince años, con un refinamiento cada vez mayor. Dan todas una masa mínima de 7 M®. Este valor es sensiblemente superior a la masa límite de una estrella de neutrones. Con Cygnus X-l se ha descubierto pues verosímilmente el primer agujero negro estelar.

Los abogados del diablo El hecho de tener a su disposición un modelo de agujero negro en estado de acreción que explica correctamente los fenómenos observados en Cygnus X-l no dispensa en ningún modo de la búsqueda de otros posibles modelos, aunque sólo sea para obligar a los partidarios del agujero negro a consolidar sus argumentos. La parte relativamente «frágil» del razonamiento consiste en inferir la masa del compañero óptico de Cygnus X-l a partir de su tipo espectral, deduciendo después, de ella, por sustracción, la de Cygnus X-l. Un análisis más profundo muestra que de hecho puede omitirse esta operación, y obtener directamente la masa mínima de Cygnus X-l fundándose únicamente en la ausencia de eclipses. En estas condiciones, la distancia de la fuente X entra en juego. Para Cygnus X-l, esta distancia se estima en 6.000 años-luz. La masa mínima así obtenida es 3,4 M®, lo que es suficiente para excluir una estrella de neutrones. Pero esta masa límite disminuye con la distancia, y no se está muy seguro de esta última; bastaría que fuese menor en un 10 % para que la masa mínima de Cygnus X-l estuviera por debajo del umbral fatídico de 3 M®. Ha sido avanzado otro contra-argumento menos serio, según el cual Cygnus X-l sería en realidad un sistema triple, estando la estrella visible HDE 226 868 disfrazada con dos compañeros invisibles. Podría tratarse de una estrella de neutrones y de una enana blanca tan próximas que poseerían un disco de acreción común. El par invisible podría también estar compuesto por una estrella normal de una decena de masas solares pero enterrada en una nube de polvo (como Epsilon Aurigae), y por una estrella de neutrones responsable de la emisión X. El modelo del sistema triple adolece de graves defectos. No se puede explicar cómo tal sistema habría podido formarse y sobrevivir de forma duradera, teniendo en cuenta que los sistemas triples son muy inestables. Pero, ¿y si lo observamos precisamente en una fase muy particular de su evolución? Cuando era el único candidato a agujero negro conocido, tal argumentación «ad hoc» era admisible; si en el Universo no se observa más que un único astro que presenta ciertas propiedades extrañas, se puede mantener que este astro se encuentra en un estado muy improbable estadísticamente. Pero ya no es éste el caso: la abundancia de los datos sobre radiación X recogidos desde hace cinco años ha revelado otras dos fuentes de rayos X binarias con un dossier tan sólido como Cygnus X-l. El

modelo del agujero negro en Cygnus X-l y sus semejantes, lejos de transformar la astrofísica, es al contrario el más conservador puesto que es el que menos hipótesis arbitrarias utiliza. Obedece con ello a una de las grandes reglas de la deontología científica: el principio de simplicidad (ver p. 204). No cabe duda de que el número de agujeros negros estelares observados aumentará aún más en el curso de los próximos años...

El club de los Tres Los lectores a los que repele el exceso de cifras pueden ir directamente a la figura 63, que esboza un retrato robot verosímil de los tres miembros del club muy cerrado de los agujeros negros estelares. Pero no deja de tener interés detallar sus particulares. Uno de ellos, llamado LMC X-3, no reside en nuestra Galaxia sino en la Gran Nube de Magallanes 6, una de las dos galaxias satélites visibles a simple vista en el hemisferio Sur, que el célebre navegante portugués había descrito en su cuaderno de a bordo. El compañero óptico de LMC X-3 es una estrella azul y caliente cuya masa se estima, según su tipo espectral, entre 4 y 8 M®. Se deduce de ello que la masa de la estrella compacta está comprendida entre 7 M® y 14 M®. Si se aplica en LMC X-3 las mismas exigencias que a Cygnus X-l, se debe olvidar el tipo espectral del compañero y deducir la masa de LMC X-3 sólo en función de su distancia. La diferencia con Cygnus X-l, es que la distancia de la Gran Nube de Magallanes es bien conocida: 170.000 años-luz. La masa mínima de LMC X-3 no baja de ese modo más que a 6 M®. ¡La interpretación como «agujero negro» es aún más verosímil que para Cygnus Xl! El tercer candidato a agujero negro lleva el nombre de A 0620-00. Situado aproximadamente a 3000 años-luz de distancia, es una fuente de rayos X que pertenece a la subclase de las «binarias de poca masa», en el sentido de que el acompañante no compacto es una estrella enana cuya masa sólo representa una fracción de masa solar. Se conocen en la actualidad una cuarentena de binarias X de poca masa cuya componente no compacta ha podido identificarse ópticamente. Pero en la mayor parte de los casos la emisión de radiación X es tan intensa que ahoga el espectro óptico, impide determinar los parámetros orbitales y prohíbe la identificación de la componente no compacta. Por suerte, la actividad de A 0620-00 en el intervalo LMC es la abreviatura de Large Magellanic Cloud.

entre «fulgores» es suficientemente discreta para no borrar la radiación visible de su acompañante. El espectro óptico puede pues ser medido; indica que se trata efectivamente de una binaria espectroscópica, cuyo período es de 7.75 horas. A partir de ahí, se deduce la masa de A 0620-00, que es al menos de 3,20 M® (si se supone que la inclinación en la órbita es la más desfavorable posible), pero es más probable que sobrepase las 7 M®. Una notable propiedad del sistema binario que contiene a A 0620-00 es su tamaño, tan ínfimo que los «abogados del diablo» no podrían colocar allí una tercera estrella (Figura 63). Algunos astrónomos (¡en todo caso los que lo han descubierto!) consideran pues a A 0620-00 como el mejor candidato a agujero negro. Se puede incluso decir que A 0620-00 es el primer agujero negro que ha sido observado, y esto mucho antes que Cygnus X-l: ¡se dieron cuenta de repente, escrutando antiguos clichés fotográficos, que A 0620-00 había sido detectado ya en 1917 en la Constelación del Unicornio, como consecuencia de una erupción óptica que lo había clasificado en la categoría de las novas! La estrella-galaxia

Admitamos que nuestra Galaxia produzca una supernova por siglo desde hace diez mil millones de años, y que una supernova de cada cien engendra un agujero negro; se concluye de ello que la Galaxia debería abrigar un millón de agujeros negros estelares. Se puede entonces estar decepcionado porque la observación de las fuentes de rayos X binarias no permita revelar más que tres. Es verdad que en otras fuentes de rayos X binarias la determinación de la masa está empañada con tantas incertidumbres que es imposible concluir la presencia de un agujero negro, sin excluirlo no obstante. Entre estos agujeros negros potenciales se encuentran LMD X-l igualmente situado en la Gran Nube de Magallanes, y media docena de fuentes galácticas. Los cazadores de agujeros negros han buscado formas de probar a los candidatos sin hacerlos «pasar por la báscula». La medida de las fluctuaciones a muy pequeña escala es una de ellas pero, como ya se ha visto, la prueba no constituye un criterio suficiente. Se ha sugerido otro método, fundado en un «criterio de semejanza»: la idea es que, si Cygnus X-l es un agujero negro, toda fuente de rayos X que tenga una curva de luminosidad X semejante tendrá grandes posibilidades de ser también otro agujero negro. Ahora bien, Cygnus X-l presenta una firma «espectral» muy particular; emite su radiación según dos estados, un estado «alto» y un estado «bajo». Un puñado de fuentes de rayos X binarias presentan la misma propiedad. Es por ello tentador atribuirles el estatuto de agujero negro... Pero, una vez más, el criterio de selección es ambiguo. Entre los miembros del «club de los Tres», A 0620-00 pasa bien la prueba pero EMC X-3 fracasa. Por otra parte, Circinus X-l se encuentra entre los «aprobados», habiéndose comprobado sin embargo, debido a su agitación demasiado regular, que es una estrella de neutrones. Hay que rendirse a la evidencia: para desenmascarar los agujeros negros estelares, ¡no se ha encontrado todavía nada mejor que el pesaje de estrellas! Finalmente, existen astros que no pertenecen a la categoría de las fuentes de rayos X, para los que la hipótesis de agujero negro es bien plausible, pero difícil de probar. He mencionado, ya a Casiope A (ver página 120), una de las más brillantes radiofuentes del cielo, asociada a un resto de supernova. EA explosión tuvo lugar hacia 1660, pero no fue señalada como hubiera debido serlo. Este resto de supernova no contiene ni pulsar, ni fuente de rayos X, mientras que sería de esperar que una estrella de neutrones tan joven fuese detectable. Es posible pues que la estrella que ha dado origen a Casiope A haya sido muy masiva y que su núcleo se haya colapsado directamente convirtiéndose en agujero negro, inhibiendo la formación de una supernova muy brillante. Uno de los astros más enigmáticos de la Galaxia se denomina SS 433. Notable ya por la intensidad de sus rayas espectrales, SS 433 presenta además dos conjuntos simétricos de rayas, uno fuertemente desplazado hacia el azul, el otro hacia el rojo, oscilando alrededor de una posición media con un período de 164 días. La interpretación del desplazamiento espectral medio en términos de efecto Doppler indica que la velocidad de desplazamiento de la fuente alcanza 78.000 km/s. ¿Cómo podría una estrella desplazarse a tal velocidad? Una indicación preciosa la proporciona el hecho de que no se trata de rayas de absorción, que provienen de una luz estelar filtrada a través de la envoltura, sino de rayas de emisión, emitidas por gas caliente en movimiento. Estos dos conjuntos de rayas encuentran pues su origen en dos chorros gaseosos simétricos que surgen de una estrella central, apuntando cada uno por turnos en dirección a la Tierra, mientras el otro lo hace en dirección opuesta. Observaciones en el dominio radio han confirmado la existencia de estos chorros. La espectroscopia de SS 433 indica por otra parte un sistema binario, compuesto de una estrella enana débilmente luminosa, y de una estrella compacta, estrella de neutrones o

agujero negro. La medida de la masa de la componente compacta no da precisamente una respuesta clara a la cuestión: la barra de error es demasiado amplia, yendo de 2 M® a 6 M®. Si SS 433 apasiona a los astrónomos, no es pues como buen candidato a agujero negro, sino por su extraordinario sistema de chorros gaseosos, cuyas tentativas de modelización permiten mejorar la teoría de los discos de acreción. Para tratar de comprender el origen de tales haces, es preciso tener en cuenta " hecho de que una estrella compacta —tanto si se trata de una

estrella de neutrones como de un agujero negro— no puede recoger cantidades arbitrariamente grandes de materia; en efecto, la caída del gas produce radiación que, al escaparse del sistema tiene tendencia a empujar la materia circundante. El disco de acreción funciona de hecho como una estrella masiva, cuyo equilibrio está asegurado por la presión de la radiación surgida de su corazón termonuclear. En un disco de acreción, debe mantenerse de la misma forma un equilibrio entre el efecto de las dos fuerzas antagónicas debidas a la gravitación y a la presión de radiación. ¿Qué sucede si la estrella acompañante, suministradora de gas, desborda su lóbulo de Roche y empieza a vertir súbitamente oleadas de gas en cantidades mayores de lo que la estrella compacta puede recoger? El sobrante debe eyectarse. Está claro que la presión del gas que se acumula en el disco encuentra una resistencia mayor en el plano del disco, allí donde llega permanentemente nuevo gas. Por consiguiente, el camino que ofrece menor resistencia es la dirección perpendicular al plano del disco. La estrella compacta no puede aliviar su sobrante más que eyectando el excedente de gas en esta dirección privilegiada. Los dos potentes chorros de gas caliente eyectados de SS 433 muestran verosímilmente este mecanismo en acción (Figura 64). SS 433 es el fascinante modelo reducido de lo que sucede a mucha mayor escala en el núcleo de las galaxias activas y de los quásars: un par de chorros ultrarrápidos que surgen de un astro compacto. Ahora bien, la masa puesta en juego aquí no es ya de 3 o 10 masas solares, sino de diez millones o mil millones de masas solares. ¡Imposible invocar una estrella de neutrones! Quizás se trate del reino de grandiosos agujeros negros gigantes, capaces de engullir estrellas enteras. El capítulo siguiente nos introduce en él. Capítulo 17

LOS AGUJEROS NEGROS GIGANTES Los agujeros negros gigantes

Dejando de lado un posible origen primordial, la formación de agujeros negros gigantes requiere pues de una importante cantidad de materia, bajo forma estelar o gaseosa, confinada en una región bastante compacta para que la gravitación gobierne su evolución. ¿Dónde se encuentran realizadas estas condiciones? En el Universo la materia está mucho más concentrada en las galaxias que en el espacio intergaláctico 2, y, en el mismo interior de las galaxias, en el centro se encuentra la mayor concentración de materia. Si se quiere buscar agujeros gigantes, hay pues que examinar las galaxias de cerca. Empecemos por la nuestra. Aparte de los agujeros negros producidos por la evolución estelar, cuya masa no puede sobrepasar apenas una decena de veces la del Sol, la teoría del colapso gravitatorio permite considerar la existencia de agujeros negros del mil, un millón, hasta varios miles de millones de masas solares (ver Apéndice 2). ¿Cuáles son los mecanismos susceptibles de generar agujeros negros gigantes? Se conocen tres. Uno de ellos ha sido ya mencionado en el capítulo 15; se trata de la formación de agujeros negros primordiales por condensación de grandes grumos en la «pasta» del Universo primitivo. El segundo mecanismo tiene en cuenta la tendencia al agrandamiento irreversible que es una de las propiedades características de los agujeros negros '; se concibe en efecto que un agujero negro gigante pueda resultar del crecimiento de un «germen» inicial de diez masas solares generado en el corazón de una supernova, a condición de que el entorno astrofísico sea suficientemente rico para alimentarlo. El tercer

mecanismo no es otro que la formación directa de un agujero negro masivo por colapso gravitatorio de un cúmulo de estrellas. 1

En el presente contexto, la evaporación de los mini-agujeros negros cuánticos no se tiene en cuenta, como cabía esperar.

Retrato robot Vía Láctea, ¡oh! hermana luminosa De los blancos arroyuelos de Canaán Y de los cuerpos blancos de los enamorados ¿ Cómo nadadores muertos seguiremos con pena Tu curso hacia otras nebulosas? Guillaume Apollinaire

La Vía Láctea se presenta bajo la forma de un disco de 100.000 años-luz de diámetro y de 300 años-luz de espesor. Esa es exactamente la relación entre el diámetro y el espesor de un disco microsurco. En el centro se encuentra un grueso abultamiento: el bulbo. Disco y bulbo se bañan en un conjunto mucho más tenue de estrellas, de forma esférica: el halo (Figura 65). Una cien mil millones de estrellas pueblan la Vía Láctea. Están en su mayor parte agrupadas en el disco. El Sol mismo ocupa en ellas una posición bastante periférica, aproximadamente a 30.000 años-luz del Centro Galáctico. Aparte de las estrellas, el disco contiene gas y polvo pero no está lleno de modo uniforme; la sustancia estelar y gaseosa se reparte preferentemente en largos «brazos» cuya forma define la morfología de la galaxia, la de una espiral. El disco está en continua transformación dinámica y química. Los brazos giran y se deforman, nacen estrellas en el seno de las grandes nubes de hidrógeno molecular; las de mayor masa explotan rápidamente en supernova e inseminan su entorno de elementos químicos complejos, que serán incorporados por ulteriores generaciones de estrellas. Por el contrario, el halo está prácticamente extinguido, especie de vestigio de la Galaxia primitiva. Desprovisto de gas, sólo contiene estrellas viejas, contemporáneas sin duda de la formación de la Galaxia hace quince mil millones de años. Todas las estrellas masivas han explotado desde hace tiempo, dejando estrellas de neutrones, y sin duda algunos agujeros negros. Las estrellas de masa media han abandonado la Secuencia Principal; algunas han producido ya enanas blancas; otras están todavía en la época de los grandes cambios: gigantes rojas pulsantes, variables y muy luminosas. Finalmente, el halo abriga numerosas estrellas de débil masa, que consumen parsimoniosamente su hidrógeno, y que de hecho vivirán todavía mucho tiempo. La característica más chocante del halo galáctico no reside tanto en la naturaleza de las estrellas que lo pueblan, sino en la manera en las que éstas se reagrupan en los cúmulos globulares.

2

Al menos la materia luminosa.

Cúmulos globulares En contraposición a los cúmulos «abiertos», agrupamientos bastante sueltos de estrellas jóvenes concentrados en el disco, los cúmulos globulares pueblan el conjunto de la esfera galáctica. Al reunir varios cientos de miles de estrellas en un diámetro que no sobrepasa los 150 años-luz, tienen el aspecto de bolas esféricas sólidamente ligadas por la gravitación. El más célebre de ellos, se encuentra en la Constelación de Hércules, es visible a simple vista, pero se necesita un potente telescopio para resolver el glóbulo luminoso en estrellas individuales. En el centro de este cúmulo, la densidad de estrellas es 20.000 veces superior a la del entorno solar. Si alrededor de una de estas estrellas órbita un planeta en el que hay astrónomos activamente ocupados, el paisaje celeste sería verdaderamente mágico. La noche sería casi desconocida pues la claridad del cielo sobrepasa siempre la del plenilunio. Estos astrónomos conocerían muchas cosas sobre las estrellas pero prácticamente nada sobre las lejanas galaxias, cuya débil luz está perpetuamente ahogada en la de las estrellas próximas... Al acumularse tantas estrellas en un volumen tan reducido, los cúmulos globulares son muy brillantes debido a la contribución de las gigantes variables. Por su brillo excepcional, los cúmulos globulares pueden ser vistos desde lejos y permiten fijar mejor las fronteras de la Galaxia 3. La distribución de los cúmulos globulares permite del mismo modo determinar con precisión el centro dinámico de Id Galaxia. Siguen en efecto órbitas muy excéntricas uno de cuyos focos corresponde al centro de gravedad de la Galaxia. Efectuando una revolución en unos doscientos millones de años, los cúmulos globulares atraviesan regularmente el disco galáctico y pierden en cada tránsito, bajo el efecto de las fuerzas de marea, las estrellas periféricas menos ligadas. Por su compacidad, los cúmulos globulares provocan problemas de evolución complejos que todavía no están totalmente dilucidados, entre los que se encuentra la eventual formación de un gran agujero negro central por fusión estelar. Las grandes líneas de su evolución pueden esbozarse sin embargo de la siguiente forma. Los cúmulos globulares se evaporan. De la misma manera que las estrellas radian su energía en forma de calor y de luz, los cúmulos de estrellas pierden energía expulsando estrellas enteras. La razón es fácilmente comprensible: al rozarse, las estrellas se aceleran —tanto más cuanto menor es su masa— y pueden adquirir una velocidad que les libera de la ligadura gravitatoria del cúmulo. El halo galáctico no es quizá más que el «vapor» de los cúmulos globulares... En contrapartida, las estrellas que quedan —las de mayor masa— se unen aún más y el núcleo del cúmulo se contrae. En lo que el cúmulo difiere radicalmente de una estrella, es en la imposibilidad de encender reacciones termonucleares susceptibles de interrumpir su contracción gravitatoria y de estabilizarse. De hecho, la energía de contracción se convierte en energía cinética que aumenta las velocidades de las estrellas. Cada vez son más numerosas las que llegan a adquirir la velocidad de escape. La evaporación se acentúa, la contracción del núcleo se acelera: el núcleo es inestable. La evaporación de los cúmulos globulares no deja de evocar la de los mini-agujeros negros, algo que no debe sorprender. Comparten en efecto la propiedad termodinámica característica de los sistemas puramente gravitatorios, ya mencionados en el capítulo 14: su temperatura4 aumenta

' La mayoría de las otras galaxias están acompañadas de cúmulos globulares, cualquiera que sea su tipo morfológico. "* Se trata aquí de una temperatura deducida de la velocidad de agitación media de las estrellas, del mismo modo que, en un gas, la temperatura está ligada a la velocidad media de agitación de las moléculas.

cuando pierden energía. En los cúmulos globulares, la inestabilidad se traduce por el colapso gravitatorio del núcleo, conocido específicamente como catástrofe gravotérmica. Los astrofísicos se han preguntado si los núcleos de los cúmulos globulares no eran propicios a la formación de agujeros negros masivos de algunos centenares o millares de masas solares, resultantes de la fusión de numerosas estrellas masivas caídas en el fondo del pozo gravitatorio central. Esta intuición teórica estaba reforzada por algunos argumentos observacionales. Si un agujero negro yace en el centro de un cúmulo globular, las estrellas atraídas hacia el pozo deben acumularse en órbitas ligadas al agujero negro y reforzar la luminosidad central. Ahora bien, algunos cúmulos evolucionados presentan, efectivamente un «pico» central de la luminosidad. Por otra parte, una decena de cúmulos globulares son fuentes de radiación X. Es una proporción considerable respecto al número de estrellas contenidas en los cúmulos. Se observa en efecto una cincuentena de fuentes de rayos X diseminadas por toda la Galaxia. La masa total de la galaxia es de cien mil millones de masas solares, la del conjunto de los cúmulos globulares es 2.000 veces menor. Si la relación entre el número de fuentes X y el número de estrellas en un cúmulo globular fuese la misma que en la Galaxia, resultaría muy improbable encontrar una sola de ellas entre todos los cúmulos globulares. El hecho de encontrar diez prueba que los cúmulos globulares son sedes altamente favorables para el alumbramiento de fuentes de radiación X. Estas están asociadas la mayoría de las veces a astros compactos, capaces de capturar el gas que le rodea y calentarlo a varios millones de grados. Un agujero negro de mil masas solares que atrajese el gas perdido por las estrellas próximas podría resolver la cuestión. Pero la situación no es tan favorable para los agujeros negros como lo parece. Progresos tanto teóricos como observacionales recientemente efectuados, tienden incluso a excluir la existencia de agujeros negros masivos en los cúmulos globulares. Las razones son las siguientes. Si la evolución dinámica de un cúmulo globular tuviese sistemáticamente que conducir a la formación de un agujero negro masivo, se debería observar una fuerte proporción de cúmulos que presentasen un pico de la luminosidad central. Ahora bien, esta propiedad sólo se observa raramente. Existe pues un mecanismo capaz de interrumpir el colapso de núcleo y estabilizarle a un tamaño «normal». Se trata de la formación de sistemas bínarios La idea es natural después de todo, pero ha sido preciso disponer de cálculos numéricos complejos realizados en potentes ordenadores para convencerse de que ¡los rozamientos de numerosas estrellas reunidas en un espacio exiguo favorecen la formación de pares! Las leyes de la Mecánica Celeste dicen que, desde el momento en que se forma un par de estrellas bastante masivo en el núcleo de un cúmulo globular, cualquier estrella que se aproxime demasiado será eyectada por un impulso gravitatorio hacía una órbita más lejana. Esta es la razón fundamental por la que la creación «forzada» de una binaria puede interrumpir la contracción del núcleo. El hecho de que numerosos cúmulos globulares sean fuentes de rayos X es una prueba suplementaria de la presencia de estrellas binarias. En efecto, en la medida en que las fuentes de rayos X de los cúmulos globulares no son particularmente más brillantes que la del disco galáctico no hay ninguna razón para invocar otros mecanismos que la acreción de gas por una estrella de neutrones o un agujero negro estelar en un sistema binario ceñido

(ver capítulo precedente). Por otra parte, las fuentes de rayos X de los cúmulos globulares son frecuentemente «fulgurantes», que se encienden y se apagan episódicamente en algunos segundos, y se sabe que estos fenómenos están relacionados con estrellas compactas emparejadas. A la postre, la mejora en la resolución de los detectores X han confirmado que la fuentes X globulares están ligeramente desplazadas del centro de los cúmulos. Ahora bien, un gran agujero negro dominaría por su masa la dinámica del núcleo del cúmulo y ocuparía la posición central. La hipótesis de los agujeros negros masivos en los cúmulos globulares «ha caído en desgracia» en la actualidad. Sin embargo no ha sido excluida, y las posibilidades para que un cúmulo particularmente masivo haya sido capaz de desarrollar un agujero negro central no son desdeñables, entre los centenares de cúmulos globulares con que cuenta nuestra Galaxia, o en los quince mil que acompañan a la gran galaxia elíptica Messier 87. Gracias al Telescopio Espacial, cuya puesta en órbita se prevé para el fin de la década, el núcleo de los cúmulos globulares podrá examinarse con una resolución veinte veces superior a la de los mejores instrumentos terrestres, dilucidándose quizás el problema de la existencia de agujeros negros masivos. Sagitario o el Agujero negro Galáctico El centro dinámico de la Galaxia, en la dirección de la constelación de Sagitario, queda ocultado a la vista de los astrónomos por gigantescos bancos de gas y de polvo cósmico. De un millón de millones de fotones emitidos en el dominio visible, uno solo sobrevive al viaje de 30.000 años-luz que le separa de la Tierra. En estas condiciones, ¡no hay esperanza para la observación del Centro Galáctico por medio de telescopios tradicionales! Afortunadamente para los astrónomos, la radiación electromagnética tiene un amplio espectro, que se extiende de las radiofrecuencias a los rayos X, y algunas frecuencias pueden franquear el obstáculo de las nubes de polvo y gas. Tal ocurre con las ondas de radio, los infrarrojos y los rayos X. Es posible pues estudiar el Centro Galáctico por medio de radiotelescopios y de satélites artificiales. Todo sucede en una región de 30 años-luz. La luminosidad «bolométrica» (suma de todas las contribuciones radio, infrarrojo X, etc.) alcanza diez millones de veces la luminosidad solar. Se encuentran allí dos fuentes radio. Una, Sagitario A Este, tiene todas las características de un resto de supernova. La otra, Sagitario A Oeste, presenta una superposición de dos tipos de emisión radio: una es «térmica», es decir que proviene de la radiación natural de una nube de gas caliente; la otra emisión, en el núcleo mismo de Sagitario A Oeste, no es térmica sino producida por electrones animados de velocidades próximas a la de la luz 5. Esta radiofuente «no térmica», bautizada como Sagitario A, es la más potente de todas las fuentes radio de la Galaxia. Su luminosidad es diez veces superior a la luminosidad óptica del Sol. Pero lo más notable es su compacidad: la emisión proviene de una región menor que 3 mil millones de kilómetros, es decir del tamaño de la órbita de Saturno o de una gigante roja. Es imposible «colocar» un cúmulo de estrellas en un volumen tan reducido. La emisión radio se debe pues a un astro único ¿Cuáles son los tipos de astros capaces de emitir radiación radio sincrotrónica? Los pulsares, los restos de supernovas, las fuentes de rayos X binarias y los agujeros negros masivos. Examinaremos los casos uno por uno. No puede tratarse de un pulsar; el pulsar más brillante conocido tiene una luminosidad radio diez mil veces más débil que la de Sagitario A..., y de todas formas la emisión radio

del Centro Galáctico no pulsa; es por el contrario notablemente estable. Se trata de la radiación sincrotrón; ver también p. 287.. No puede tratarse de una fuente de rayos X binaria; la luminosidad de las fuentes de rayos X binarias fluctúa en todos los dominios de longitud de onda; su luminosidad media en las radiofrecuencias es cien mil veces menor que la de Sagitario, y alcanza una décima en el máximo de un fulgor. Por otra parte, si la luminosidad radio de Sagitario A... es demasiado grande respecto a la de un sistema binario próximo, ¡su luminosidad en rayos X es mucho menor! Un resto de resto de supernova que hubiera explotado recientemente sería una potente radiofuente. El problema es su velocidad de expansión: sería mucho mayor que los 15 Km/s observados en Sagitario A.,. De hecho está excluido que el astro responsable de la emisión radio tenga una masa estelar. Si fuera éste el caso, el astro estaría animado de una velocidad propia típica de la de las estrellas en el Centro de la Galaxia, que es de 150 Km/s. Esta velocidad se traducirá por un desplazamiento de la radiofuente sobre la esfera celeste. Este movimiento no ha sido observado. Las medidas confirman que el astro debe permanecer en reposo en el Centro de la Galaxia; su masa tiene pues que exceder ampliamente a la de una estrella. La hipótesis de un agujero negro de algunos millones de masas solares en estado de acreción lenta es el único modelo compatible con todas las observaciones radioastronómicas. Se trata ahora de confrontar la hipótesis del agujero masivo a las observaciones efectuadas a través de la otra ventana abierta en el Centro Galáctico: el dominio infrarrojo. La astronomía de la radiación infrarroja se ha realizado desde hace algunos años gracias a detectores muy sofisticados situados a bordo de satélites tales como IRAS 6. Se ha descubierto así que la fuente radio compacta Sagitario A coincide casi con una fuente infrarroja llamada IRS 16. Esta fuente muy compacta es probablemente la responsable de la luminosidad total de los 30 años-luz circundantes, y quien calienta iluminándolo el gas de Sagitario A Oeste. ¿Cuál es la naturaleza de IRS 16? Las estrellas en su fase de gigante roja son potentes emisores infrarrojos. Midiendo el flujo infrarrojo de IRS 16 se puede pues «seguir la huella» de las gigantes rojas, y suponiendo una proporción «normal» de gigantes rojas se deduce de ello la distribución de estrellas en IRS 16. Por este método, se encuentra que dos millones de estrellas deben gravitar en un radio de 5 años-luz. Tal densidad estelar es prodigiosa: ¡es mil veces la que reina en el núcleo de un gran cúmulo globular! Pero las gigantes rojas no son las únicas fuentes de radiación infrarroja. Medidas espectroscópicas muestran que nubes de gas calentadas a 300.' K orbitan en la periferia de IRS 16 y contribuyen a su emisión infrarroja. Si las gigantes rojas sirven para «trazar» la densidad de estrellas, el movimiento de las nubes es un marcador de la masa total de IRS 16. Esta información capital reposa en la simple hipótesis de que el gas está animado de un movimiento circular en un campo de gravitación central. En estas condiciones, la velocidad orbital de las nubes —proporcionada por el desplazamiento Doppler de las rayas espectrales— determina directamente el valor de la masa central. Las medidas dan un resultado comprendido entre 5 y 8 millones de masas solares. Puesto que el número total de estrellas en esta región sólo contribuye con 2 millones de masas solares, queda una masa oscura de 3 a 6 millones de masa solares. ¡La hipótesis del Agujero Negro Galáctico gigante está fuertemente corroborada por la astronomía infrarroja 7! En la actualidad, la mayoría de los astrofísicos están de acuerdo sobre la naturaleza del Centro Galáctico, descomponiéndolo en tres estructuras: un disco de gas «tibio» y grumoso

acumulado en una «corona» que se extiende de 5 a 30 años-luz del centro, con el borde interno fuertemente calentado por una fuente de radiación central; en el interior de la corona, una cavidad de cinco años-luz de radio que contiene dos millones de masas solares en forma de estrellas reagrupadas en un cúmulo muy compacto; en el mismo centro, un agujero negro de 3 a 6 millones de masas solares en estado de acreción con débil consumo 8 . Es interesante hacer notar que el diámetro de un agujero negro de tres millones de masas solares es de veinte millones de kilómetros, es decir cien veces menor que la dimensión de la región resuelta por

6 Infra Red Astronomical Satellite. 7 Por otra parte, han sido detectadas radiación X y gamma, que indican una vez más la presencia de un astro compacto. 8 Los abogados del diablo han hecho valer con razón que el movimiento de las nubes de gas podría no ser ni circular ni gravitatorio, sino consistir en una eyección forzada por la presión de radiación de un astro central. Bajo esta hipótesis, bastaría una masa de 300 M® para explicar las velocidades observadas

los instrumentos actuales. Esta resolución se mejorará en el transcurso de los próximos años, pero se pueden apreciar los progresos que quedan por alcanzar pensando que, vista desde la Tierra, la dimensión angular del Agujero Negro Galáctico es igual a la de una pelota de tenis situada a un millón de kilómetros... La idea de que un gran astro invisible, análogo a los predichos por Laplace, pudiera residir en el Centro de la Galaxia había sido invocada desde 1801 por el astrónomo alemán Johann Seldner. Pero Seldner había montado esta hipótesis con el único fin de explicar la rotación galáctica. La masa necesaria era tan considerable que Seldner abandonó pronto la idea. La primera predicción teórica seria de un agujero negro galáctico gigante se remonta a 1971, cuando los datos radio e infrarrojo eran todavía escasos. Debido a Donald Lynden-Bell y Martin Rees, de la universidad de Cambridge, no era de hecho más que la consecuencia lógica de un trabajo anterior de Lynden-Bell, que había considerado en 1969 que todos los núcleos de galaxias abrigan agujeros negros gigantes, cuyo gasto de energía estaría regulado por la cantidad de carburante gaseoso disponible 9. Los desarrollos de la astronomía extragaláctica han venido a apuntalar esta hipótesis. En comparación con las galaxias activas de Seyfert y sobre todo de los quásars, el agujero de Sagitario no es más que un lastimoso motor. Pero es verosímil que, en un pasado reciente, se hayan desarrollado acontecimientos más violentos que los observados actualmente en el núcleo de la Galaxia. Cuando dos millones de estrellas gravitan a poca distancia de un agujero negro gigante hay alguna posibilidad para que una vez cada diez mil arios una de ellas se desvíe de su órbita circular para zambullirse en dirección al agujero negro. Allí, colosales fuerzas de marea van a descuartizarla y romperla 10. Una parte de sus restos va a alimentar al agujero negro y provocar una llamada de actividad durante algunas decenas de años, la otra parte se aleja hacia una órbita excéntrica. Podemos preguntarnos seriamente si las nubes tibias observadas en IRS 16 no son sino los restos de estrellas rotas en el curso del último millón de años que han escapado al agujero negro. Su número es en Los astrofísicos rusos Yacov Zeldovich e Igor Novikov fueron lo que por primera vez propusieron, en 1964, la acreción de gas por un agujero negro supermasivo como fuente de energía de los quásars. El mecanismo de ruptura de una estrella por las fuerzas de marea de un agujero negro se detalla más adelante.

cualquier caso compatible con una frecuencia de ruptura de una estrella cada diez mil años... Todo concurre para afirmar que el núcleo de nuestra Galaxia no es más que una versión en miniatura de los fenómenos cataclísmicos que se desarrollan en el corazón de las galaxias más lejanas. El mundo de las galaxias Miles de millones de galaxias son visibles gracias a los telescopios modernos. Al modo de Buffon que clasificó las especies animales, Edwing Hubble ha inventariado a principios de siglo diversas «especies» de galaxias que se distinguen por su morfología: elípticas, espirales, espirales con barra o irregulares. Hemos visto a propósito de la Vía Láctea que las espirales están formadas por tres componentes: un bulbo, un disco estructurado en brazos y un halo difuso. Las espirales con barra están constituidas generalmente por dos brazos articulados alrededor de una barra central. Las galaxias irregulares se parecen a una espiral a la que se habría quitado el halo y el núcleo. Las galaxias elípticas se parecen por el contrario a una espiral sin disco pero con un núcleo y un halo importantes. Entre estas últimas se encuentran las galaxias más grandes, gigantescos enjambres de millones de millones de estrellas. La característica esencial de las galaxias elípticas es no contener más que estrellas y prácticamente nada de gas. Se estima que todas las galaxias tienen la misma edad aproximada de quince mil millones de años y que si presentan morfologías tan diferentes, es porque han tenido «metabolismo» diferentes. El metabolismo de una galaxia no es otra cosa que el ritmo de conversión de gas en estrellas, símbolo de la «vida» de una galaxia. Desde esta óptica, las galaxias elípticas son aquellas para la que el ritmo de conversión inicial ha sido más rápido, de manera que la mayoría de las estrellas han podido formarse antes de que las nubes hubieran tenido tiempo de interaccionar y de caer gradualmente en el disco u. Las espirales son por el contrario galaxias con metabolismo inicial bastante lento, para las que la formación de estrellas sólo ha tenido lugar después de que el gas se hubiera aplanado en forma de disco. 11

La colisión de dos nubes gaseosas disipa, en efecto, mucha energía orbital y tiende a hacerlas caer en el «plano ecuatorial» de la galaxia.

En cuanto a las galaxias irregulares, ilustran el caso de un desarrollo interrumpido: menos que la mitad del gas ha sido incorporado hasta aquí en las estrellas y no ha podido dibujarse ninguna morfología posible. Resumido en este único aspecto metabólico, la evolución de las galaxias parece bien apacible. La de las elípticas está fijada; la de las espirales es un ciclo que se atenúa progresivamente, en el curso del cual nacen estrellas, se fraguan los elementos pesados y explotan enriqueciendo el gas ambiente; después se suceden nuevas generaciones de estrellas, cada una asimilando la obra química de las precedentes. Núcleo activo Una de las revoluciones astronómicas de los treinta últimos años ha sido comprender que las galaxias hacen mucho más que producir simplemente luz estelar. Numerosas de ellas abrigan en su centro una fuente de intensa radiación «no térmica», es decir que no puede atribuirse a estrellas. La Vía Láctea en sí misma es el ejemplo más evidente, aunque la energía producida por su núcleo sólo representa las tres milésimas partes de la energía total emitida por los cien mil millones de estrellas del disco y del halo. Pero, en 1 % de todas las galaxias observadas, la actividad central es tan viva que la energía «no térmica» desprendida en un volumen tan pequeño como el del Sistema Solar es mucho mayor que la de la galaxia huésped. Estas galaxias de núcleo activo tienen un formidable «motor» en el

núcleo. Un caso ejemplar ilustrará mejor la naturaleza del problema planteado por las galaxias activas. Se trata del quásar 12 3C 273. De todos los fenómenos astronómicos, los quásars son indudablemente los más sorprendentes debido a la fabulosa energía que emiten. Situado a 3 mil millones de años-luz, 3C 273 tiene el brillo de un millar de galaxias. Ahora bien, como indica su apariencia puntual, su tamaño es muy reducido; ciertas medidas han revelado que su diámetro es 12

El término quásar es una contracción de la expresión «quasi-star»; evoca que, en el momento del descubrimiento de los quásars, al principio de los años 1960, su aspecto puntual les hacía parecerse a estrellas; con la mejora de los instrumentos, se observa hoy, la existencia de nebulosidades rodeando a los quásars, indicando que se trata de núcleos muy brillantes de galaxias lejanas. Los agujeros negros gigantes 299

inferior a un año-luz. Comparado con el volumen total ocupado por nuestra Galaxia, el quásar 3C 273 es tan minúsculo como la torre Eiffel respecto al globo terrestre... ¿Cómo puede ser mil veces más brillante? Todo el problema de los núcleos activos de galaxias está aquí planteado en su versión más extrema. Nuestro saber actual acerca de la naturaleza y el funcionamiento del «motor central» está aproximadamente al mismo nivel que nuestro saber de hace cincuenta años concerniente a la constitución interna de las estrellas. Se ignoraba entonces que el corazón estelar está alimentado por reacciones termonucleares. Gracias a los desarrollos de la física nuclear, se ha llegado a comprender por qué las estrellas tienen las masas y las luminosidades observadas, se ha podido calcular su estructura y reconstruir su evolución. Para las galaxias todavía no ha surgido ningún esquema tan claro. Pero es verosímil que la acrecían de materia por un agujero negro gigante, represente allí un papel análogo al de la liberación de energía termonuclear en las estrellas. Vamos a tratar de comprender por qué. Cinco piezas fáciles La familia de las galaxias de núcleo activo agrupa géneros bastante diversos de fuentes extragalácticos, que van de las radiogalaxias a los quásars explosivos. Sería desbordar el propósito de este libro el describir en detalle las particularidades observacionales de cada uno de estos géneros u. Nos interesaremos más bien en sus propiedades comunes, que serán piezas para reconstruir el rompecabezas planteado a los astrónomos: ¿Cuál es la naturaleza de su motor central? Se pueden retener cinco de ellas: el carácter «no térmico» de la radiación, una fuerte concentración de masa, la variabilidad de la luminosidad, la expulsión de chorros gaseosos a distancias muy grandes, y la semejanza con los núcleos de galaxias habituales. Los núcleos activos de galaxias pueden observarse prácticamente en todas las longitudes de onda: radio, infrarrojo, visible, ultravioleta, rayos X. Lo más notable en esta emisión es el espectro de la radiación, es decir la distribución de la intensidad en función de la frecuencia: no se parece en modo alguno al de una estrella o al de una colección de estrellas. Leer, por ejemplo, Los quásars de S. Collin y G. Stasinska, Le Rocher, 1987.

La radiación emitida por la superficie de una estrella se aproxima al ideal de «cuerpo negro» (ver página 288), caracterizado por su temperatura; se dice que es térmica. La radiación de los núcleos activos es por el contrario no térmica, el ejemplo más inmediato es el de las radiogalaxias, que es del tipo «sincrotrón», es decir emitido por electrones animados de velocidades próximas a la de la luz y frenados por un campo magnético.

Psicología de las masas Todo un ramillete de argumentos teóricos y observacionales apuntala la hipótesis de fuertes concentraciones de materia en los núcleos de galaxias. El primero de ellos es una consideración muy general sobre la cantidad de luz que puede emitir un astro de cualquier naturaleza. Una masa dada no puede radiar más que una cierta luminosidad crítica llamada límite de Eddington. La explicación es simple; en una fuente de luz estable 14, la fuerza centrífuga ejercida por la presión de la radiación saliente no puede exceder a la fuerza gravitatoria centrípeta, que asegura la cohesión de la fuente. La luminosidad de Eddington es el caso límite en el que estas dos fuerzas son iguales. Si la luminosidad del Sol se hiciese 25.000 veces mayor que su luminosidad actual, se evaporaría pura y simplemente, no siendo capaz de mantener la cohesión de su gas; por otra parte, ciertas estrellas jóvenes, gigantes y muy calientes radian tan cerca de su límite de Eddington que disipan rápidamente su envoltura gaseosa. Si, en lugar de una estrella, la fuente está constituida por un agujero negro que absorbe una nube de gas, la presión de radiación emitida por el gas en caída libre no puede sobrepasar la fuerza gravitatoria que el agujero negro ejerce sobre las partículas gaseosas; si no, las partículas serían repelidas y cesaría la acreción. Si se supone que los núcleos de galaxias muy activos radian en su límite de Eddington, la sola medida de su flujo luminoso permite estimar su masa. Las luminosidades de los núcleos activos se escalonan entre cien mil millones y mil millones de millones de veces la luminosidad del Sol. Sus masas están comprendidas pues entre un millón y diez mil millones de masas solares, siendo alcanzadas las cotas superiores por los núcleos más activos, en este caso los quásars. La condición de estabilidad de la fuente es esencial; la luminosidad de una explosión de supernova sobrepasa alegremente el límite de Eddington.

Un segundo argumento teórico en favor de un motor masivo reposa en consideraciones de rendimiento. La luminosidad de una fuente resulta siempre de la conversión de una cierta masa en energía de radiación. Tomemos el ejemplo de la energía termonuclear liberada en el centro de las estrellas, que se acostumbra a considerar como un mecanismo particularmente eficaz para producir energía a partir de masa. Sin embargo, cuando un kilogramo de hidrógeno se transforma en helio, sólo se disipan siete gramos de energía de radiación (ver página 89); en otras palabras, el «rendimiento» de la energía termonuclear sólo es de siete milésimas. Admitamos por un instante que la energía desprendida por un núcleo activo fuese igualmente de origen termonuclear. Esto significaría que un quásar transforma cada año mil masas solares en energía pura; como se tienen buenas razones para creer que un quásar brilla durante vanos millones de años, ello implicaría que en el curso de su existencia un quásar consume el equivalente de una galaxia entera. Esto parece tan excesivo, particularmente teniendo en cuenta el escaso volumen puesto en juego, que debemos preguntarnos si un mecanismo más eficaz que la liberación de energía termonuclear no estará en el origen de los quásars. Ahora bien, hemos visto a propósito de las fuentes X binarias que la liberación de energía gravitatoria en un campo gravitatorio fuerte satisfacía nuestra exigencia. Cuando un kilogramo de hidrógeno cae progresivamente hacia un agujero negro recorriendo un disco

de acreción, son transformados cien gramos en energía. El rendimiento es notoriamente mejor. Esta simple comprobación de las formidables posibilidades energéticas de los campos gravitatorios han conducido a los astrofísicos a interesarse de cerca por los astros compactos a fin de explicar los fenómenos celestes más violentos, ya sea a escala estelar como las novas y las fuentes de rayos X, o a escala de los núcleos de galaxias. Una nueva rama de las astrofísica, consagrada al estudio del comportamiento de la materia en el campo gravitatorio de un astro compacto, se ha creado así en los años 1970 y está hoy en pleno auge: la Astrofísica Relativista. Estas notas teóricas, que sugieren una masa compacta importante en los núcleos activos de galaxias serían un poco vanas si ninguna observación viniese a corroborarlas. Hay dos métodos que permiten medir aproximadamente masas concentradas, pero no son aplicables más que a galaxias relativamente próximas 15. El primero consiste en estudiar la distribución de la luz estelar cerca del centro. Recuérdese que este método es aplicado corrientemente para estudiar el núcleo de los cúmulos globulares (página 289). Si está presente una importante masa central, las estrellas atraídas hacia el pozo gravitatorio deben acumularse y reforzar de manera no habitual la luminosidad. El segundo método consiste en deducir la masa a partir del movimiento de la materia circundante; en particular ha sido aplicado con éxito al Centro Galáctico (ver página 294). En las galaxias exteriores, se trata de medir las velocidades de agitación de las estrellas cerca del centro; interpretándolas como las de un movimiento circular en torno a una masa central, se deduce el valor de esta masa. La aplicación más ilustre de estas dos técnicas se remonta a 1978 y concierne al núcleo de la galaxia elíptica Messier 87, una de las radiofuentes más poderosas del cielo. Las medidas indican una masa central comprendida entre 3 y 5 miles de millones de masas solares; además, como el núcleo de Messier 87 no es bastante brillante para estar constituido por estrellas, se trata quizás del primer descubrimiento observacional de un agujero negro supermasivo. No obstante, como en el caso del Centro Galáctico, la interpretación de las velocidades estelares en Messier 87 ha sido justamente rebatida; si el movimiento de las estrellas no es circular sino radial, no se requiere ya una gran masa central. Las medidas efectuadas en Messier 87 han tenido al menos el mérito de abrir la vía a una investigación sistemática de los núcleos de galaxias próximas. En lo concerniente a los núcleos activos (en las galaxias de Seyfert), las masas centrales se estiman en todos los casos entre diez y cien millones de masas solares. Pero la eficacia del «motor gravitatorio» requiere una masa no sólo importante, sino concentrada. Para las radiogalaxias es posible medir directamente el tamaño máximo del núcleo emisor por interferometría de larga base 16 . Así es como en las fuentes próximas mejor resueltas se encuentra que la fuente central está confinada en un diámetro de menos de un año-luz. 15

Los quásars se excluyen, pues, de estas medidas; su masa se deduce únicamente de su luminosidad. Esta técnica utiliza conjuntos de radiotelescopios separados varios miles de kilómetros (en continentes diferentes), cuyas interferencias permiten obtener una resolución muy fina. 1(1

Corazón variable No todos los núcleos activos son fuentes de radiación en longitud de onda radio. ¿Cómo determinar su tamaño? Por un argumento indirecto que pone en juego la variabilidad de su brillo. Hemos visto ya en el capítulo precedente por qué la variabilidad de una fuente da una indicación acerca de su dimensión: cualquier modificación en la configuración de la fuente no puede nunca propagarse más rápido que la luz. Si por ejemplo la luminosidad de un

núcleo activo experimenta una fluctuación apreciable en un día, se puede afirmar que la fuente está confinada en una región de un día-luz, es decir 26.000 millones de kilómetros. Se ha visto por otra parte que la luminosidad de una fuente proporciona información sobre su masa. Es claro que el tamaño de la fuente debe ser superior al radio de Schwarzschild de un agujero negro de la misma masa. Un agujero negro de cien millones de masas solares tiene un tamaño de una hora-luz, lo que implica que el brillo de un núcleo activo de cien millones de masas solares no puede variar más rápido que en una hora. Esta es la razón por la que el tiempo característico de variabilidad de una fuente da una indicación preciosa sobre su compacidad. En un quásar tal como 3C 273, la luminosidad varía en tiempos tan cortos como siete meses; la dimensión correspondiente de la fuente, siete meses-luz, es sólo diez veces el radio de Schwarzschild de la masa central. La mayoría de los núcleos activos emite lo esencial de su radiación desde una región comprendida entre el radio de Schwarzschild y algunos centenares de radios de Schwarzschild. Un núcleo activo particularmente notable, denominado OX 169 tiene una luminosidad (observada en el dominio de los rayos X) que puede triplicarse en un lapso de 100 minutos, lo que implica que la fuente de energía cabría en la órbita de Saturno. Es evidente que se requiere una fuente de energía compacta de una naturaleza bien particular para alimentar los quásars.

Los chorros cósmicos A una distancia de 16 millones de años-luz, Centaurus A es la radiogalaxia más próxima. No es una fuente particularmente potente, pero presenta dos finos haces de gas ionizado que surgen de una y otra parte del centro de la galaxia y se extienden mucho más allá de sus fronteras ópticas, hasta un millón de años-luz. Estos chorros cósmicos terminan en nubes emisoras de radiación radio sincrotrón, llamados lóbulos. En el dominio visible, Centaurus A es un astro de una gran hermosura, asemejándose a una galaxia elíptica con barra, constituida ésta por una capa de polvo. Su núcleo encierra una minúscula fuente radio variable, cuyo tamaño es inferior a algunas horas-luz. Aunque su potencia radio sea baja en la actualidad, la cantidad de energía que ha debido ser inyectada en los lóbulos equivale a la de varios millones de explosivos de supernovas, lo que prueba que Centaurus A ha sido muy activa y encierra un motor central de al menos 107 M®. Esta estructura en chorros desdoblados no es particular de Centaurus A, sino que constituye una de las características más notorias de los núcleos activos radioemisores. En el curso de los últimos años, las técnicas de interferometría de larga base han permitido a los radioastrónomos resolver los chorros en diferentes subunidades encajadas unas en otras a la manera de muñecas rusas. Microchorros de algunos años-luz se escapan del núcleo compacto y están perfectamente alineados con los chorros gigantes que se despliegan un millón de veces más lejos. Este sorprendente alineamiento de estructuras gaseosas en tan largas distancias significa que los chorros han sido expulsados por un motor central que ha conservado durante varios millones de años la «memoria» de su dirección. Por otra parte, los chorros cósmicos son una versión gigante de lo observado en algunos sistemas estelares tales como SS 433 (ver página 283). Estos argumentos refuerzan la opinión según la cual un astro masivo y compacto en rotación sirve de propulsor, proporcionando el eje de rotación de forma natural una dirección privilegiada para la evasión del gas. Martin Rees ha sugerido que los núcleos más violentamente variables son aquellos cuyas «toberas» apuntan por azar en nuestra dirección. La idea es explicar una clase

desconcertante de núcleos activos llamados Lacértides 17. Su propiedad más chocante es presentar fluctuaciones de su brillo más rápidas y más intensas que los otros géneros de núcleos activos. Fluctúan incluso tan rápido —algunas horas— ¡que su radiación parece provenir de una región menor que el tamaño de un agujero negro de la misma masa! Otra diferencia importante: mientras que el espectro de los otros núcleos activos está caracterizado por rayas de emisión muy intensas 18, las Lacértides tienen espectros prácticamente «vírgenes». Se cree sin embargo que las rayas de emisión se originan en una vasta nube de gas que rodea a la fuente central y es iluminada por ella, y que todos los núcleos activos deben poseer tales nubes. El modelo de Rees, que invoca un chorro que apunta hacia nosotros, tiene la virtud de explicar simultáneamente las variaciones aparentes «demasiado» rápidas de las Lacértides y la ausencia de rayas de emisión. En efecto, la teoría de la Relatividad Restringida predice que, si un chorro de materia se desplaza a una velocidad próxima a la de la luz en la dirección del observador, su intensidad luminosa está amplificada y su tiempo aparente de fluctuación disminuido 19. Se comprende también que, si el chorro de una Lacértide está dirigido hacia nosotros, las rayas de emisión que provienen de las capas más profundas están completamente ahogadas en la radiación muy intensa del chorro. El cambio en la continuidad La observación de las galaxias «normales» —aquellas cuyo núcleo es menos luminoso que el resto de la galaxia— revela muchas características comunes de los núcleos activos. La ilustración más evidente es la Vía Láctea, cuyo núcleo presenta una emisión radio asociada a una fuerte concentración de masa. Parece pues razonable suponer que las galaxias de núcleo activo no son monstruos exóticos, sino que constituyen una cierta franja de la población de galaxias, que reúnen en un particular momento de su evolución las condiciones favorables para una actividad central. La propiedad esencial de un núcleo activo es la presencia de una fuerte concentración de masa. Los métodos observacionales mencionados anteriormente, que permiten estimar el valor de esta masa, 17

La primera galaxia de este tipo se descubrió en la Constelación del Lagarto; había sido clasificada inicialmente entre las estrellas variables, hasta que se identificó en 1968 con una fuente radio extragaláctica. >x Cuyo desplazamiento hacia el rojo, cuando se trata de quásars, permite determinar la distancia. lv Explica también, por qué algunos chorros parecen propagarse a velocidades superiores a la de la luz

pueden aplicarse a cualquier núcleo de una galaxia cercana, con tal de que no esté oculto por polvo oscuro. La aplicación de estos métodos al estudio de los núcleos de galaxias próximas, puesta en marcha en el curso de los últimos años, ha dado y continúa dando un resultado sorprendente: ¡la presencia de una masa central compacta parece ser la dote común de casi todas las galaxias, ya sean espirales o elípticas, gigantes o enanas! Numerosos ejemplos lo testifican; tomemos dos de ellos, particularmente reveladores. Nuestra Galaxia pertenece a un grupo de una veintena de miembros dominado por la Nebulosa de Andrómeda, visible a simple vista, a sólo dos millones de años-luz de distancia. La Galaxia de Andrómeda es pariente cercana de la Vía Láctea; es apenas vez y media más masiva, es también de tipo espiral, presenta la misma composición química y posee pequeñas galaxias satélites. Como el plano de su disco está inclinado respecto a la dirección de observación, su núcleo central —no activo— es accesible a los telescopios ópticos, siendo posible medir la distribución de estrellas en sus alrededores. Las determinaciones más recientes establecen la existencia de una masa central oscura de

107M®. ¡La Galaxia de Andrómeda tiene un buen motor, pero no funciona! Desplacémonos ahora muy ligeramente, y observemos Messier 32, una de las galaxias satélite de Andrómeda. Es una elíptica enana, cien veces menos masiva y totalmente inactiva, reduciéndose a un enjambre de viejas estrellas que orbitan alrededor del centro. La ausencia de gas y de polvo permite estudiar el núcleo con un gran detalle. Se encuentra allí un cúmulo de estrellas en rotación en torno a una masa central invisible de cinco millones de masas solares. Esta enana tiene un corazón tan grande como el de la Vía Láctea... A partir de este momento es fácil comprender que si en todos los núcleos de galaxias residen agujeros negros gigantes, su nivel de actividad depende de la densidad de estrellas y de gas —dicho de otra manera de «carburante»— presentes en un radio de vanos años-luz. A este respecto, no es sorprendente que el núcleo de Messier 32, a pesar de su formidable motor potencial, sea totalmente inactivo: la galaxia huésped es una elíptica desprovista de gas, y en tanto que enana tampoco contiene muchas estrellas. En el otro extremo, volvamos a Messier 87, la galaxia elíptica gigante que encierra quizás un agujero negro de cinco mil millones de masas solares. Su núcleo manifiesta cierta actividad, aunque débil comparada a la de un quásar. Para dar cuenta de su luminosidad, bastaría con que una centésima de masa solar gaseosa fuese «digerida» cada año por el agujero negro central. Esta modesta cantidad de materia puede ser proporcionada con facilidad por los millones de estrellas que gravitan en los alrededores, perdiendo «normalmente» gas en el curso de su evolución nuclear. Messier 87 parece confundirse con un quásar apagado. Hace quizás mil millones de años, su quásar estaba en pleno vigor; habría sido visible por la noche a simple vista, a cincuenta millones de años-luz de la Tierra, con un brillo comparable al de Mercurio. Motores alternativos La detección de importantes concentraciones de materia en el núcleo de las galaxias activas no prueba de forma definitiva la presencia de agujeros negros gigantes. Otros dos tipos de objetos pueden en principio representar el papel de motor compacto y eficaz: un cúmulo ultradenso de estrellas, o una estrella única «supermasiva». ¿Resisten estos modelos concurrentes un análisis profundo? Vamos a ver que no. La tesis del cúmulo estelar se basa en una abundancia excepcional de supernovas. La explosiones de supernovas, que sobrevienen al final de la evolución nuclear de las estrellas masivas, son estadísticamente bastante raras en una galaxia —alguna por siglo. Pero se puede imaginar que, en un cúmulo muy denso la frecuencia de las explosiones se amplifique bajo la influencia de colisiones de estrellas. En efecto, las colisiones de estrellas conducen generalmente a la fusión de los dos compañeros para formar un astro único de mayor masa, es decir con una evolución más rápida hacia el estadio de supernova. Se puede calcular que, en un cúmulo muy denso que contenga mil millones de estrellas, las colisiones son tan frecuentes y el número de estrellas masivas formadas tan elevado, ¡que podrían explotar diez supernovas cada año! El modelo del cúmulo estelar concentrado adolece de tres defectos capitales. En primer lugar, no explica las grandes variaciones de luminosidad de los quásars y de las Lacértides; es cierto que cada explosión de supernova produciría un relámpago luminoso, pero, comparado con la brusca llamarada de un quásar, la explosión de una supernova sólo tiene el brillo de una cerilla. Para reproducir las fluctuaciones de los quásares, habría que admitir la explosión simultánea de mil supernovas... Un cúmulo de estrellas es igualmente incapaz de generar grandes chorros cósmicos estabilizados, pues no hay ninguna dirección particular en expulsar la materia. Pero la más grave objeción es la extrema inestabilidad de los cúmulos estelares densos; una asamblea de mil millones de estrellas confinadas en un año-luz —tal es la limitación observacional— no puede sobrevivir más que un millón de

años antes de hundirse en agujero negro. Sería preciso una coincidencia de carácter extraordinario para que las galaxias de núcleo activo sean observadas sistemáticamente en una fase tan breve y tan particular de su evolución. Una vez más, es el principio de simplicidad el que interviene para excluir al cúmulo estelar como motor de los núcleos de galaxias. Tampoco funciona mejor el modelo de la estrella masiva. La teoría de la estructura estelar permite entender por qué ninguna estrella observada tiene una masa superior a cien veces la masa del Sol, pero esto no impide en absoluto a los astrofísicos especular regularmente acerca de la existencia de estrellas súper masivas de cien mil a cien millones de masas solares. La principal cualidad de una estrella supermasiva es el ser prodigiosamente brillante. Es también su defecto: una estrella supermasiva sólo es una enorme esfera de fotones, y las esferas de fotones no son sistemas estables. Admitiendo incluso que puedan formarse por un mecanismo que no se comprende, las estrellas súper masivas deben explotar o colapsarse. No nos preocupemos; se han inventado algunas variantes de estrellas súper masivas con la esperanza de «consolidar» la estabilidad de estas masas enormes. Las «spinars» serían estrellas súper masivas en rotación rápida, cuyo equilibrio se mantendría por las fuerzas centrífugas, mientras que las «magnetoides» se sostendrían por una presión magnética interna colosal. Si bien estas estrellas teóricas, semejantes a pulsares gigantes, tienen el mérito de poseer una dirección privilegiada para eyectar la materia —el eje de rotación o el del campo magnético—, la teoría de la Relatividad General demuestra su inestabilidad fundamental, debida en particular a la disipación de energía por ondas gravitatorias. Por otra parte, un pulsar gigante produciría variaciones periódicas en la luminosidad, que nunca han sido observadas en ningún núcleo de galaxia. En conclusión, el agujero negro masivo en estado de acreción es el único candidato que responde a todas las exigencias teóricas y observacionales requeridas para explicar la actividad de los núcleos de galaxias. Su formación ha sido predicha por la Relatividad General, y marca sin duda el inevitable término del colapso gravitatorio de todos los astros masivos. El agujero negro es estable, y proporciona un entorno ideal para convertir la energía potencial gravitatoria en radiación, a través de la acreción de materia. Finalmente, el agujero negro no sólo es capaz de liberar la energía de la materia que cae en él, sino que él mismo es un formidable depósito de energía rotacional (ver capítulo 11). Puesto que su eje de rotación ofrece una dirección privilegiada para la eyección de materia, el agujero negro en rotación puede funcionar como un generador de chorros gaseosos realizando a una escala gigantesca lo que SS 433 realiza a la medida de una estrella (Figura 66).

¡A comer! Con un rendimiento típico del 10 % un núcleo activo de galaxia, del más modesto al más brillante, requiere la digestión de una cantidad de gas comprendida entre una centésima y cien masas solares al año. Se plantea el problema del aprovisionamiento. ¿Cuáles son los posibles suministradores? En una galaxia espiral semejante a la Vía Láctea, el conjunto de la estrellas expulsa en media, una masa solar de gas anualmente. Es difícil entender como este gas, diseminado en los 100.000 años-luz del disco, podría canalizarse en el minúsculo núcleo central de un añoluz. Por otra parte, las galaxias elípticas, aun estando desprovistas de gas interestelar, manifiestan también signos de actividad —en particular la emisión de chorros radioemisores. Debe existir pues un mecanismo más radical para producir grandes cantidades de gas en el mismo núcleo. Puesto que el gas está incorporado en las estrellas, se concluye de ello que para alimentarse convenientemente el agujero negro debe romper estrellas. Los agujeros negros gigantes son perfectamente capaces de deglutir estrellas enteras. Respecto a un agujero negro de mil millones de masas solares, el Sol sería como un grano de arena respecto a un balón de fútbol. Pero esta manera de comer no es la más indicada para producir energía: todo desaparece en el agujero, que se contenta con aumentar ligeramente su masa. La situación idónea es aquella en que la estrella es rota fuera del

agujero, de manera que sus fragmentos puedan aprovisionar un disco de acreción. Las estrellas cometarias Un agujero negro gigante escondido en un cúmulo de estrellas, se parece, en muchos aspectos, al Sol rodeado de su cortejo cometario. Las estrellas del cúmulo gravitan lejos del agujero negro como una especie de reserva influenciada únicamente por el campo gravitatorio central. Pero en esta reserva algunas estrellas se rozan tan estrechamente que son aceleradas y desviadas de su trayectoria. A veces, una de ellas se lanza en la dirección del agujero negro. A partir de este momento, su destino está sometido totalmente al pozo gravitatorio que le atrae y al campo de radiación central que le ilumina. Como un cometa que se acerca al sol, la estrella recibe un flujo radiante intenso, que no proviene, claro está, del agujero negro mismo sino de las regiones calientes del disco de acreción que le rodea. La estrella comienza a evaporarse, a despojarse poco a poco de sus capas periféricas, hasta que su corazón termonuclear aparece desnudo. Si la estrella no pasa demasiado cerca del agujero negro, consigue pasar sin demasiados estragos y puede resurgir del pozo en una órbita de forma parabólica, que la reconducirá algunos años más tarde a su reserva de origen; o bien la estrella cometaria puede perder suficiente energía orbital para continuar ligada al agujero negro y alcanzar una órbita elíptica alargada que le lleva periódicamente cerca de la fuente central, perdiendo un poco más de gas cada vez que pasa por el «perihelio». Pero la evaporación de las estrellas cometarias sólo aporta una modesta contribución a la alimentación del agujero negro. Para brillar activamente, el agujero negro debe hacer un consumo de gas equivalente a una estrella completa. Hay dos sucesos susceptibles de extirpar toda la substancia de una estrella. El primero es la colisión de dos estrellas «cometarias» en los alrededores del agujero negro, el segundo es la ruptura de una estrella individual por las fuerzas de marea, del agujero negro. Colisiones de estrellas Si en el Sistema Solar es extremadamente improbable un encuentro entre dos cometas, no sucede lo mismo en los parajes de un agujero negro. La teoría de las colisiones interestelares muestra que cuando dos estrellas de tipo solar se encuentran a pequeña velocidad, es decir a menos de 500 Km/s, el choque es «blando» y quedan pegadas una a otra, formando una estrella más grande. Pero si su velocidad sobrepasa los 500 Km/s, el choque se endurece y empiezan a esparcirse fragmentos de estrella. En el disco galáctico, o incluso en los cúmulos globulares, las estrellas rara vez sobrepasan velocidades de 200 Km/s. Pero los agujeros negros gigantes excavan pozos gravitatorios tan profundos que aceleran las estrellas capturadas a velocidades de varios miles de kilómetros por segundo. Se puede calcular que, en un radio de diez años-luz en torno a un agujero negro de mil millones de masas solares, las colisiones entre estrellas cometarias son destructivas y se producen a un ritmo medio de diez por año. Sus fragmentos permanecen en órbita alrededor del agujero negro en forma de nubes gaseosas, pudiendo aprovisionar copiosamente la «despensa» del agujero negro. Sin embargo parece que las colisiones interestelares sólo son capaces de alimentar a los quásars que contienen agujeros negros muy grandes; para los núcleos menos activos, que abrigan un agujero negro de menor masa, la frecuencia de las colisiones interestelares es tan pequeña que éstas no representan probablemente ningún papel. Marea negra El más grandioso fenómeno susceptible de desarrollarse cerca de un agujero negro gigante es quizás el desgarramiento de una estrella por las fuerzas de marea. Cuando una estrella gravita alrededor de un agujero negro, la fuerza de gravitación que se ejerce sobre la parte

de la estrella más próxima al agujero negro es mayor que la que se ejerce sobre la parte opuesta. La diferencia entre las dos fuerzas no es otra cosa que la fuerza de marea ejercida por el agujero negro (ver página 53). Si la estrella gravita en una órbita aproximadamente circular, la fuerza de marea es modesta y la estrella puede ajustar su configuración interna a la marea externa, tomando una forma oblonga dirigida hacia el agujero negro. Pero cuando una estrella cometaria se zambulle en el campo gravitatorio del agujero negro siguiendo una órbita excéntrica, las fuerzas de marea crecen rápidamente a medida que disminuye la distancia al agujero negro 20. Llega pues necesariamente un momento en que las fuerzas de marea se hacen mayores que las fuerzas aseguradoras de la cohesión interna de la estrella. A partir de ese momento la estrella no tiene tiempo para reajustar su configuración, experimenta deformaciones cada vez más catastróficas, debiendo romperse inevitablemente su equilibrio. Un fenómeno tan espectacular sólo se produce si la estrella penetra en el interior de cierta distancia crítica alrededor del agujero negro, llamada límite de Roche, según el apellido del matemático francés que se volcó desde 1847 sobre el problema de las mareas en el contexto de los pares planeta-satélite 21. El límite de Roche depende notablemente de la masa del agujero negro. Si este último es demasiado grueso —más de cien millones Las fuerzas de la marea se hacen incluso infinitas en el Centro del agujero negro, ver p. 157. Se trata del mismo Edward Roche que ha dado su nombre a los «lóbulos» que caracterizan las zonas de influencia gravitatoria de una estrella doble, ver figura 59. Es interesante hacer notar que, en la medida en que una estrella que franquea el límite de Roche de un agujero negro se rompe con tanta facilidad como dos estrellas colisionando entre sí a más de 500 km/s, la penetración de una estrella en el radio de Roche puede interpretarse como una colisión de la estrella consigo misma.

de masas solares—, su radio propio, que crece proporcionalmente a su masa, se hace mayor que su radio de Roche. En este caso, una estrella no puede ser rota por las fuerzas de marea más que en el interior del agujero negro. Sus residuos quedarán atrapados y los astrónomos exteriores no verán nada. Por el contrario, la ruptura de la estrella por las fuerzas de marea se hace eficaz si el agujero negro es de masa relativamente modesta. Esta es la razón por la que la mayoría de los astrofísicos estiman hoy que las galaxias de Seyfert y los núcleos poco activos tienen un agujero negro central comprendido entre un millón y cien millones de masas solares, alimentándose de los restos de estrellas rotas por las fuerzas de marea, mientras que los quásars y núcleos brillantes tendrían un agujero negro de mayor masa, proporcionándole el carburante las colisiones interestelares. Torta flameada Durante bastante tiempo, la representación de las deformaciones y de la ruptura de una estrella por las fuerzas de marea ha sido calcada de la descripción que Roche había dado para satélites naturales, sólidos o líquidos, en órbita circular alrededor de planetas. Roche demostró que un cuerpo que experimenta las fuerzas de marea de un compañero masivo tiene tendencia a alargarse en la dirección del compañero y a comprimirse en las direcciones perpendiculares. Esta es precisamente la razón por la cual el nivel de los océanos terrestres, sometidos a las fuerzas de marea de la Luna, sube no sólo allí donde la atracción lunar es más fuerte, sino también en el punto diametralmente opuesto (Figura 67). Si las fuerzas de marea se hacen bastante grandes —como es el caso para ciertos sistemas de estrellas dobles muy próximas—, el cuerpo deformado puede estirarse largamente en forma de «cigarro». El límite de Roche marca la frontera más allá de la cual las

deformaciones se hacen tan importantes que el cuerpo no puede ya continuar estable: debe dislocarse. Pero esto que es válido para una asociación planeta-satélite no lo es necesariamente para un sistema agujero-estrella, que pone en juego astros de naturaleza completamente diferentes. Brandon Carter y yo mismo, en el Observatorio de Meudon, hemos decidido hace algunos años reexaminar la cuestión y hemos tenido la suerte de descubrir fenómenos inesperados, renovando las ideas admitidas sobre la ruptura de los cuerpos celestes. Un par agujero negro-estrella se distingue de un par planeta-satélite por dos características esenciales. En primer lugar, la órbita de una estrella cometaria no es circular sino que penetra en la dirección del agujero negro.

De hecho, para que una estrella tenga la posibilidad de alcanzar la región en la que las fuerzas de marea son destructivas, es preciso que su órbita sea muy excéntrica. Si, por ejemplo, el Centro Galáctico abriga realmente un agujero negro de tres millones de masas solares, cuyo radio es de diez millones de kilómetros, toda estrella de tipo solar que se aproxime a menos de doscientos millones de kilómetros del agujero negro está condenada a la dislocación; es el límite de Roche del Agujero Negro Galáctico. Pero la cuestión que nos hemos planteado es la siguiente: ¿qué sucede si la estrella, en lugar de bordear el límite de Roche, penetra en él profundamente, sin ser deglutida por ello por el agujero negro central? ¡Después de todos, entre los diez millones de kilómetros del agujero negro y los doscientos millones de kilómetros del radio de Roche, hay mucho sitio! Ahora bien, las fuerzas de

marea varían como el inverso del cubo de la distancia al agujero negro. Esto significa que a una distancia diez veces menor que el límite de Roche la estrella experimenta fuerzas de marea mil veces mayores que en el límite de Roche, que sin embargo, eran ya suficientes para romperla. Así, toda estrella que llega a esta distancia tiene posibilidades de experimentar una suerte más violenta aún que la de sus congéneres que apenas bordean el límite de Roche... La segunda característica original de las interacciones agujero negro-estrella se refiere a la naturaleza misma del astro sometido a las fuerzas de marea: una estrella ordinaria como el Sol, está constituida de gas y no de rocas, contrariamente a un satélite natural o un planeta; puede ser más fácilmente comprimida por las fuerzas de marea exteriores. Esto es lo que sucede precisamente cuando una estrella penetra profundamente en el límite de Roche de un agujero negro gigante. Aunque inicialmente tenga tendencia a estirarse en forma de cigarro, recibe brutalmente un violento «golpe laminador» por parte de las fuerzas de marea exteriores que le aplasta y le aplana en el plano de su órbita (Figura 68).

Ahora bien, quien dice compresión dice calentamiento. Estos dos factores dependen muy sensiblemente de la profundidad de la penetración en el límite de Roche. Si la estrella no hace más que bordearlo, los efectos de marea son insuficientes para comprimirla; la estrella se comporta aproximadamente corno si estuviese constituida por una gigantesca bola de agua, alargándose progresivamente en cigarro e hinchándose, hasta que termina por fragmentarse, mucho después de haber vuelto a salir del radio de Roche. Si por el contrario la estrella alcanza una distancia diez veces menor que el límite de Roche, ¡es aplastada de tal modo por las fuerzas de marea que su densidad se multiplica por mil y su temperatura por cien en una décima de segundo! Queda claro que el último destino de la estrella es más que nunca la ruptura y el esparcimiento de su gas; pero antes habrá «flameado» brevemente en forma de torta ultracaliente y densa.

El agujero negro detonador La consecuencia más espectacular del aplastamiento de una estrella es el desencadenamiento de una explosión termonuclear en la «torta estelar». En efecto, los ritmos de las reacciones nucleares que rigen la producción de energía de una estrella dependen muy acusadamente de la temperatura. Para una estrella en equilibrio hidrostático como el Sol, la densidad central es cien gramos por centímetro cúbico y la temperatura quince millones de grados. En estas condiciones «normales», la reacción nuclear dominante es la fusión del hidrógeno, pero produciéndose sólo a un ritmo extraordinariamente lento (ver capítulo 4). Si ahora una estrella penetra fortuitamente en el límite de Roche de un agujero negro gigante, su temperatura central sube bruscamente a mil millones de grados durante una décima de segundo. Como en las fases que preceden a la explosión de una supernova, las cadenas de reacciones termonucleares están considerablemente aceleradas. En el curso de un calentamiento tan breve, el hidrógeno no tiene tiempo para fusionarse todavía más, pero los elementos más pesados como el helio, el nitrógeno o el oxígeno, hasta entonces inertes, se transforman instantáneamente en elementos pesados y liberan energía. Se desencadena una verdadera explosión termonuclear en la torta estelar, que se convierte en una especie de «supernova por accidente». Las consecuencias de la explosión son importantes. Una parte de los residuos de la estrella es expulsada lejos del agujero negro, fuera de su alcance, en forma de viento caliente capaz de arrastrar consigo las nubes que encuentre; de rebote, la otra parte cae rápidamente en el agujero, produciendo una brusca llamarada de radiación. A la manera de las supernovas, las

tortas estelares son también crisoles aptos para forjar elementos pesados e inseminar el medio interestelar. Pero los cálculos muestran que las proporciones de elementos inyectados por una torta estelar difieren ligeramente de los inyectados por una explosión de supernova; es pues posible que la detección en un próximo futuro de estos elementos particulares en el espectro de una nube que orbite cerca del centro de una galaxia activa aporte la prueba definitiva de la ruptura explosiva de estrellas por un agujero negro gigante. Ya se trate de una supernova o de una torta estelar, es siempre la gravitación la que sirve de detonador a la explosión termonuclear. En una supernova es el mismo campo gravitatorio de la estrella el que «mina» desde el interior su estabilidad y desencadena la explosión haciendo colapsarse el núcleo; en una torta estelar, es el campo gravitatorio del agujero negro el que comprime «desde el exterior», la estrella y provoca su detonación. El interés de la ruptura explosiva de las estrellas por las fuerzas de marea de un agujero negro masivo está no obstante limitado por la rareza de los sucesos; se puede calcular que, sobre el ya restringido número de estrellas que llegan al límite de Roche de un agujero negro —alrededor de una por año en los núcleos activos, una cada mil años en el Centro Galáctico—, una décima parte de ellas penetrará en él suficientemente para explotar. Pero sucede que las fuerzas de marea no son el único medio de hacer saltar tortas estelares: las colisiones frontales y a gran velocidad de estrellas, susceptibles de producirse con bastante frecuencia —hasta diez al año— en los alrededores de un agujero negro supermasivo de mil millones de masas solares, forman igualmente tortas estelares transitorias. El fenómeno podría pues representar un papel importante tanto en los núcleos de galaxias poco activos, cuyo agujero negro central moderadamente masivo produciría tortas por efecto de marea, como en los quásars de agujeros negros mayores, produciendo tortas flameadas a través de colisiones estelares. El canibalismo generalizado El saber que un motor de explosión puede producir energía no es suficiente para comprender el funcionamiento detallado de un automóvil. Si el modelo del agujero negro gigante como motor de la actividad central de las galaxias es plausible, es preciso reconocer que los detalles de su actividad se comprenden mal y que los quásars siguen estando entre los fenómenos más misteriosos del Universo. Más que la observación de un quásar individual, la de la repartición de los quásars puede enseñarnos mucho acerca de su formación, su extinción y el papel que representan en la vida de las galaxias que les acoge. Debemos en primer lugar preguntarnos si toda galaxia pasa en un momento u otro de su existencia por el estadio de quásar, y en qué momento de su evolución se produce esta fase espectacular. Las intuiciones que se pueden tener respecto a este tema son algo contradictorias. El hecho de no observar más que quásars muy lejanos, es decir retrasados en el tiempo, sugiere que los quásars podrían representar una fase primitiva de la evolución de las galaxias. Por el contrario, si se cree que los agujeros negros gigantes requeridos para alimentar los quásars se han desarrollado por crecimiento de un germen estelar, hay que admitir que la fase de quásar es un estadio de evolución avanzada de las galaxias, por el que la mayoría de ellas no habría pasado todavía. Si todas las galaxias debieran conocer un día u otro una fase de actividad, el hecho de no observar más que una débil proporción de quásars indica que su tiempo de actividad se reduciría a algunas decenas de millones de años. Ahora bien, la observación de chorros radio muy extensos sugiere que la duración de funcionamiento del motor central no puede ser tan breve, pues los chorros no habrían podido mantenerse alineados a distancias tan grandes. Como, por otra parte, la fase quásar no puede durar apenas más, pues entonces se

plantearía un problema insoluble de aprovisionamiento, se concluye de ello que el período activo de un quásar debe extenderse aproximadamente unos cien millones de años, y no afectar más que a una minoría de galaxias que reúnen temporalmente condiciones excepcionalmente favorables. En este esquema la fase quásar entraría en acción a partir de que el agujero negro central alcanzase una masa conveniente y estuviese disponible una cantidad substancial de «carburante» gaseoso y estelar; cesaría cuando el aprovisionamiento descendiese por debajo de un cierto límite. Según este cálculo, debería haber más quásars muertos que vivos 22. Pero un quásar muerto puede resucitar si se le proporciona nuevamente alimento. Cuando el cúmulo estelar central ha sido agotado, la única posibilidad de reactivación es el aporte de materia exterior. Ahora bien, las galaxias se rozan frecuentemente, sobre todo cuando están reagrupadas en cúmulos ricos que contienen centenares o millares de miembros. Algunas observaciones recientes indican que numerosos quásars están asociados a galaxias en colisión, lo que sugiere que, de forma semejante a las fuentes de rayos X estelares avivadas por la caída de materia arrancada a una estrella acompañante, la actividad de las galaxias podría ser estimulada por la transferencia de materia entre los componentes de un par. Así mismo se ha verificado que, entre las galaxias próximas, aquellas que forman parte de sistemas múltiples presentan una actividad algo mayor que las galaxias aisladas. 22

Al estar estudiado los quásars a miles de millones de años-luz y no sobrepasar apenas los cien millones de años de vida, todos los quásars observados en la actualidad se han extinguido desde hace tiempo...

El fenómeno es particularmente llamativo en el centro de los cúmulos muy ricos de galaxias, que abrigan elípticas «supergigantes» cien veces más grandes que las galaxias «normales». Estas galaxias manifiestan una importante actividad en el dominio radio y están rodeadas por una verdadera nube de galaxias satélites a punto de caer. Las galaxias supergigantes engordan pues por canibalismo, en detrimento de las decenas de galaxias menores vecinas. Es pertinente suponer que, abrigando ya un cierto número de las galaxias capturadas un gran agujero negro central, las galaxias caníbales deberían poseer un núcleo múltiple compuesto por varios agujeros negros masivos que perturban la distribución de materia circundante y aumentan el ritmo de acreción. En radiogalaxias gigantes se han observado efectivamente varios centros de actividad. Pero como el destino último de un conjunto de agujeros negros es la fusión en un astro único más grueso que la suma de sus constituyentes, llegará un lejano día en que los agujeros negros perderán todo alimento y en el que las galaxias activas se apagarán... Mientras tanto, con los agujeros negros gigantes motores de los quásars, hemos llegado a una extraña paradoja: el agujero negro, perfectamente invisible al desnudo, puede llegar a ser el astro más brillante del Universo si está convenientemente vestido de gas y de estrellas. Capítulo 18

LA LUZ GRAVITATORIA Quisiera plantear una cuestión al Señor Einstein, a saber: ¿a qué velocidad se propaga la acción de la gravitación en su teoría? Max Born, 1913

En la teoría de Newton la gravitación era una fuerza que actuaba instantáneamente entre los cuerpos masivos. Esta idea, como se ha visto, resultaba inadmisible a numerosos físicos, entre los que se incluía Newton, y un siglo más tarde Laplace proponía una modificación de la teoría en la que la interacción gravitatoria se propagaba a velocidad finita. La idea se abandonó rápidamente, pues el hecho de que los efectos gravitatorios no se propagasen instantáneamente despertaba de manera inmediata una pregunta a la que nadie sabia responder: cuando un cuerpo masivo es perturbado violentamente, el campo gravitatorio que genera debe ajustarse de unos puntos a otros a la nueva configuración del cuerpo; ¿de qué forma se propaga este reajuste? La teoría de la Relatividad General de Einstein permite organizar en un esquema coherente las intuiciones acerca de la propagación de la gravitación. Einstein se preguntó si una masa en movimiento acelerado podía radiar ondas de gravitación, de la misma forma que una carga eléctrica en movimiento acelerado radia ondas electromagnéticas. A partir de 1918, descubrió efectivamente soluciones a sus ecuaciones del campo gravitatorio que representaban ondulaciones de la curvatura del espacio-tiempo propagándose a la velocidad de la luz. Acababa de inventar la «luz gravitatoria». La analogía entre ondas gravitatorias y ondas electromagnéticas es de utilidad para la concepción del fenómeno, pero apenas conduce más lejos. La estructura de una onda gravitatoria y sus efectos sobre la materia son mucho más complejos que los de la onda electromagnética. Una primera diferencia notable viene del hecho de que la gravitación es puramente atractiva; la masa, es decir la «carga gravitatoria», tiene siempre el mismo signo. Se concluye de ello que un «oscilador» gravitatorio elemental, constituido por dos masas que vibran en los extremos de un resorte, no radia el mismo tipo de ondas que dos cargas eléctricas de signo opuesto. Otra complicación viene de que la partícula mediadora de la onda gravitatoria, llamada gravitón, tiene una masa no nula, mientras que el fotón, partícula mediadora de la interacción electromagnética, no transporta carga eléctrica. Por consiguiente la onda de gravitación producida por una masa acelerada es en sí misma fuente de gravitación: la gravitación gravita. En términos técnicos, se dice que es «no-lineal». Esta no-linealidad introduce considerables dificultades en la resolución de los problemas más simples en apariencia, tales como el cálculo del campo gravitatorio generado por dos cuerpos en movimiento. Al contrario que el campo electromagnético, o la fuerza de gravitación newtoniana, si dos masas producen individualmente dos campos, su acción combinada produce un campo que no es la suma de los dos campos; hay que tener en cuenta además la gravitación de interacción entre las dos masas, que varía constantemente en el curso del movimiento. Esta es la razón por la que «el problema de dos cuerpos», que describe por ejemplo el campo gravitatorio de una estrella doble y que en la teoría de Newton tiene una solución fácil de calcular, no se ha resuelto rigurosamente en Relatividad General. Sin embargo, para campos gravitatorios suficientemente débiles, la «no-linealidad» puede obviarse, desapareciendo numerosas complicaciones. Esto es precisamente el caso cuando interesa la detección En el caso electromagnético, la radiación es de tipo dipolar; en el caso gravitatorio es de tipo quadrupolar. Individualmente, cada una de las masas del oscilador gravitatorio representaría el papel de un dipolo, siendo incapaz de generar ondas gravitatorias.

de la radiación gravitatoria proveniente de fuentes lejanas. Pero tal simplificación daría resultados completamente erróneos en las proximidades de una supernova o de dos agujeros

negros en colisión... La tercera diferencia fundamental con el electromagnetismo reside en sus intensidades relativas. Si se sitúan a una distancia mutua de un centímetro dos protones —que, por tener una masa y una carga eléctrica, están sometidos a la vez a una interacción gravitatoria y a una interacción electromagnética—, la fuerza gravitatoria que los atrae es 10 ~37 veces menor que la fuerza electrostática con la que se repelen 2. De ahí viene el mayor obstáculo para su detección; mientras que bastó un decenio después de la predicción de Maxwell para que Hertz consiguiera producir y captar en laboratorio ondas electromagnéticas, han pasado sin resultado sesenta años desde la predicción de Einstein. Algunos ejemplos ilustrarán mejor la extraordinaria debilidad de las ondas gravitatorias en las condiciones habituales. Volvamos a nuestro oscilador gravitatorio elemental, constituido por dos masas de un kilogramo que oscilan 1 centímetro 100 veces por segundo en los extremos de un resorte cuya longitud es de diez centímetros. Admitiendo que se pudiese recoger toda la potencia gravitatoria liberada por este sistema y convertirla en potencia eléctrica, se puede calcular que para alimentar una sola bombilla de 50 watios, ¡se necesitarían tantos osciladores como el número de partículas contenido en el planeta! Una forma equivalente de construir un oscilador gravitatorio es hacer girar una barra horizontal alrededor de un eje vertical que pasa por su centro. Cuando se mira la barra en su plano de rotación, parece que se contrae cuando presenta una de sus extremidades, y que se dilata cuando se ve en toda su longitud. Genera pues ondas gravitatorias. Tomemos una barra de acero de 20 metros de largo, con un peso de 500 toneladas, y hagámosla girar al límite de su ruptura, digamos 5 vueltas por segundo. La potencia gravitatoria liberada sigue siendo ridícula: 10~29. Vale más abandonar el laboratorio y buscar fuentes naturales de ondas gravitatorias entre los cuerpos del Sistema Solar. La situación apenas es más alentadora. Se necesitarían cincuenta mil millones de meteoritos de 1 Km de diámetro golpeando sobre la Tierra a 10 Km/s 3

En un núcleo atómico, la interacción nuclear que liga dos protones es aún cien veces más fuertes que la interacción electromagnética.

para hacer brillar la modesta bombilla eléctrica... ¡No quedaría nadie para comprobar el resultado! Es vano el buscar fuentes en cuerpos astronómicos ordinarios. Para generar ondas gravitatorias que no sean totalmente insignificantes, el astro generador debe desplazarse a una velocidad próxima a la de la luz y ser compacto, es decir con un radio próximo a su radio de Schwarzschild. La Tierra, que gira alrededor del Sol a la velocidad de 30 Km/s y cuyo radio es mil millones de veces mayor que su radio de Schwarzschild sólo genera una potencia gravitatoria de una diez milésima de watio. Ahora bien, a lo largo de todo este libro, hemos descrito astros «relativista», que pueden reunir al menos temporalmente las condiciones favorables para la emisión de luz gravitatoria. Únicamente los parajes astronómicos más violentos son buenos generadores de ondas gravitatorias. Como los astros violentos están muy alejados (si se produjese un cataclismo astronómico en las proximidades de la Tierra, dejaría simplemente de existir vida), sólo depositan sobre nuestro planeta una minúscula fracción de su energía gravitatoria. Los sistemas de estrellas compactas son buenos generadores de ondas gravitatorias. Un par próximo de estrellas de neutrones radia suficiente energía gravitatoria para que se detecten los efectos, aunque en forma indirecta: la pérdida de energía orbital se traduce en una

disminución del período de revolución. El pulsar binario PST 1913 + 16 constituye una prefecta ilustración del fenómeno; actualmente ofrece incluso la única demostración observacional de las ondas gravitatorias (ver capítulo 7, página 123). Por lo que respecta a las estrellas individuales, los acontecimientos catastróficos que suceden al final de su vida termonuclear pueden ser copiosas fuentes de radiación gravitatoria. Una explosión de supernova que conduce a la formación de una estrella de neutrones es extremadamente eficaz. Una estrella puede incluso emitir más energía gravitatoria en las últimas fracciones de segundos de su colapso que toda la energía electromagnética liberada en el curso de sus decenas de millones de años de vida termonuclear. Pero de forma contraria a las estrellas binarias, que emiten ondas gravitatorias periódicas y que se podrían asimilar a «pulsares gravitatorios», las súpernovas son fuentes «impulsivas», que producen una breve y única bocanada de radiación gravitatoria. Cuando se habla de gravitación, se desemboca forzosamente en el agujero negro. Astro relativista por excelencia, es evidentemente la fuente más prolífica de radiación gravitatoria. Por supuesto que, el colapso exactamente esférico de una estrella no genera ondas (ver capítulo 11), pero las estrellas reales están rotando y hay siempre movimientos asimétricos que permiten que surja la luz gravitatoria. El primer «grito» de un agujero negro recién formado es un relámpago de luz gravitatoria que transporta una energía comparable a la energía de su masa en reposo. ¡La luminosidad gravitatoria de dos agujeros negros de diez masas solares que entran en colisión es cien millones de veces superior a la luminosidad electromagnética del quásar más potente! Si un suceso de esta naturaleza se desarrollase en el Centro de nuestra Galaxia, a diez mil años-luz de distancia, proporcionaría finalmente un flujo detectable en la Tierra... Se ve pues emerger una nueva astronomía de extremadas exigencias, la de la luz gravitatoria. Será una astronomía de una transparencia incomparable, pues, contrariamente a la luz electromagnética, la luz gravitatoria no es absorbida por la materia, y procedente de fuentes lejanas puede llegar a la Tierra conservando toda la información sobre la configuración de las fuentes que la han generado. Además, las fuentes más prolíficas son precisamente aquellas para las que la observación electromagnética sólo aporta una información escasa e indirecta: pares de estrellas de neutrones, corazón de supernovas, agujeros negros. Esta es la razón por la que la astronomía gravitatoria abrirá una ventana al Universo más misterioso, permitiendo no sólo acceder a las propiedades desconocidas de los astros compactos y de la materia ultradensa, sino asistir también finalmente a los comienzos del Universo, hace quince mil millones de años. Pues el Universo primordial, continuamente agitado por fluctuaciones de densidad y el mismo «Big Bang» son poderosas fuentes de radiación gravitatoria; y si ninguna onda electromagnética puede emerger durante el primer millón de años que sigue al Big Bang, la radiación gravitatoria atraviesa sin dificultad los estados más densos del Universo primordial. La única prueba definitiva de la existencia de los agujeros negros y del nacimiento del Universo vendrá quizás de su luz gravitatoria. Pero volvamos a Tierra. Para captar la luz, hacen falta telescopios. ¿Cómo concebir un telescopio gravitatorio? El principio es simple. Del mismo modo que las ondas electromagnéticas hacen vibrar una antena receptora, las ondas gravitatorias hacen vibrar de determinada forma la materia que encuentran; las «arrugas de curvatura» que hacen ondular ligeramente el tejido elástico del espacio-tiempo alargan o acortan las distancias a su paso. Si, por ejemplo, el detector es un bloque de materia sólida, sus diferentes partes son proclives a moverse en diferentes

direcciones al paso de la onda gravitatoria 3. El desplazamiento relativo de dos masas respecto a su separación define la amplitud de la onda, que es una medida indirecta de su potencia. Una colisión de dos agujeros negros estelares en el Centro de la Galaxia se traduciría por un desplazamiento de 10 ~12 milímetros (una millonésima de millonésima de milímetros) de los extremos de un detector que tenga forma de barra. La construcción de un detector de ondas gravitatorias es pues un verdadero desafío tecnológico planteado a los físicos experimentales. Durante los años 1960, Joseph Weber hizo construir en la universidad de Maryland grandes cilindros de aluminio que supuestamente responderían por una oscilación de sus extremos a las ondas gravitatorias provenientes del Centro Galáctico. Creyó haber observado efectos positivos; pero como se ha comprobado por diversas experiencias análogas, realizadas a continuación en vanos países (uno de ellos, Francia, en el Observatorio de Meudon), se trataba de una interpretación incorrecta de los errores experimentales. Una explosión de supernova en el Centro Galáctico produciría una onda de amplitud 10~18, mientras que la mejor de las barras de Weber sólo es capaz de detectar una amplitud diez mil millones de veces superior. Más aún, la detección gravitatoria de una supernova en el Centro de la Galaxia correspondería a un azar inverosímil: ¡en el conjunto de la Galaxia, no debe explotar más de una supernova cada diez años, y el impulso gravitatorio de una explosión sólo dura una fracción de segundo! El paraje más favorable para la generación de ondas gravitatorias detectables es el cúmulo de galaxias de la Virgen, en que las explosiones de supernova repartidas por algunos millares de galaxias rea-grupadas en una pequeña región angular del cielo se producen a la frecuencia media de una por semana. Pero el cúmulo de la Virgen no está a diez mil añosluz como el Centro Galáctico, está a cincuenta millones de años-luz. Ello significa que para detectar la luz gravitatoria de una supernova de la Virgen sería precisa una sensibilidad todavía un millón de veces mayor que la requerida para detectar una supernova galáctica. 3

Hagamos notar que, debido al paso permanente de ondas gravitatorias, ningún cuerpo material es, estrictamente indeformable, por muy rígido que sea.

A pesar de estas dificultades tecnológicas más bien desalentadoras, el desafío de la detección de la luz gravitatoria podría ser resuelto antes de final de siglo. La tecnología ha progresado desde la época de las experiencias de Weber. Actualmente, ocho grupos de investigación repartidos en varios países ponen a punto barras de «segunda generación», mucho más sensibles, pero correlativamente más costosas al estar constituidas por materiales raros tales como el niobio o el zafiro, enfriados a algunos grados por encima del cero absoluto. Otra vía aún más prometedora ha sido descubierta recientemente. La idea consiste no ya en hacer vibrar un cilindro, sino en medir las oscilaciones de la separación entre dos espejos masivos colocados en los extremos de largos brazos, siendo controladas la distancias por un sistema de interferencias luminosas. Cuanto mayor es la distancia entre los espejos reflectores, mayores son las posibilidades que tienen los efectos de la señal gravitatoria, de emerger del «ruido» perturbador que hace vibrar permanentemente al sistema (seísmos, ondas sonoras etc.). Al construir espejos de muy alta calidad que permiten varios centenares de reflexiones luminosas sucesivas, se prevé obtener longitudes equivalentes de varios kilómetros. Hay experiencias en curso en los Estados Unidos y en Europa. En el momento en que escribo estas líneas, hay un proyecto franco-italiano en el «banquillo» de los organismos presupuestados. La suma puesta en juego, ochenta millones de francos, es pequeña com-

parada con el coste de un solo avión o con el lanzamiento de un satélite. Pero la astronomía gravitatoria, que todavía no ha producido resultados, no ha entrado aún en las «costumbres». Así pues, la comunidad de astrofísicos «relativistas», espera ansiosamente saber si contará con los medios de abrir esta maravillosa ventana para mirar un Universo desconocido todavía. La reciente historia de la astronomía ha probado que, cada vez que el hombre ha mirado el cielo con otros ojos que los suyos o los de un aparato fotográfico (radiotelescopios, detectores de rayos X y rayos gamma), han aparecido nuevas maravillas, forzándole a revisar sus concepciones y mejorando un poco más su comprensión del Universo. La ventana gravitatoria se abrirá en todo caso en otros países. Cuando se capten las primeras señales, las información acerca del movimiento y de la naturaleza de las fuentes se encontrará ahogada en mucho ruido parásito. Pero, animados por la certeza de que la astronomía gravitatoria es la de los siglos futuros, podremos emprender el lanzamiento al espacio de gigantescos interferómetros gravitatorios perfectamente aislados de las sacudidas telúricas y de la agitación humana...

Capítulo 19

EL AGUJERO NEGRO UNIVERSO La eternidad es larga, sobre todo al final. Woody Allen

En el momento de concluir, llega el tiempo de situar los agujeros negros en una perspectiva cósmica. Después de haber buscado la luz de los microscópicos agujeros negros primordiales menores que un átomo, asistido a la resurrección de los agujeros negros estelares de diez kilómetros, alternando con los agujeros negros gigantes tan grandes como el Sistema Solar, se tienen ganas de plantear la sencilla cuestión: ¿cuál es el mayor agujero negro posible? La respuesta es una de las especulaciones más fantásticas de la ciencia moderna: ¡el Universo mismo! Para comprender por qué tal concepción no es desatinada, hay que rememorar algunos elementos de Cosmología. Más allá de los mitos y elucubraciones que el hombre se ha forjado siempre para construir un Universo comprensible y tranquilizador, el cosmólogo moderno dispone de tres hechos observacionales que, mediante interpretaciones coherentes con las adquisiciones de la física teórica y experimental, le permiten reconstituir la historia pasada del Universo. La huida de las galaxias, la abundancia relativa de los elementos ligeros ' y la detección de una radiación cosmológica uniforme, son otros tantos índices que sugieren que el

Universo está en expansión desde hace quince mil millones de años, a partir de una fase muy condensada y muy caliente, el Big Bang 2. Si la observación nos aclara el pasado del Universo, únicamente la teoría permite inferir su futuro. Puesto que la gravitación domina la organización de las estructuras materiales a gran escala, la teoría de la Relatividad General de Einstein ofrece modelos cosmológicos plausibles, que satisfacen las condiciones que han prevalecido en el pasado del Universo. En cuanto a la evolución cósmica futura, se afrontan dos soluciones: un Universo en expansión-contracción, finito en el tiempo y en el espacio, y un Universo en expansión per-

manente e indefinida 3. Entre estos dos destinos, la densidad media de materia en el Universo representa el papel de árbitro. Si es inferior al valor crítico de 10~29 g/cm3 —equivalente a seis átomos de hidrógeno por metro cúbico de espacio—, el campo gravitatorio universal no es bastante fuerte para mantener la ligazón material, y el Universo se dilatará indefinidamente. En el caso contrario, la gravitación dominará sobre la expansión y el Universo volverá a contraerse colapsándose aproximadamente en cien mil millones de años (10~u años) en una especie de Big Bang invertido, el Big Crunch. Cualquiera que sea el destino del Universo 4, los agujeros negros tienen que desempeñar en él, un papel capital. Freeman Dyson, del Instituto de Estudios Avanzados de Princeton, y Jamal Islam, de la universidad de Londres, se han preguntado sobre la evolución a largo plazo de un Universo abierto, en continua expansión 5. Antes o después entrarán en juego procesos físicos que se desarrollan en escalas de tiempo tan largas, que apenas han sido iniciados en los quince mil millones de años de existencia del Universo contemporáneo. 2

Existen excelentes obras de divulgación sobre el tema, por ejemplo, Paciencia en el azul de H. Reeves, Le Seuil, 1981. 3 Contrariamente a una opinión extendida corrientemente —incluidos los cosmólogos—, el hecho de que el Universo sea infinito en el tiempo futuro no significa de ningún modo que sea infinito en el espacio; leer sobre este tema mi artículo «Geometrías de la Variedad Universo» en «El Big Bang», La Nueva Enciclopedia, de las Ciencias y las Técnicas, Fayard Fondation Diderot, 1987. 4 Las medidas actuales acerca de la densidad media del Universo dan un valor ligeramente inferior a la densidad crítica, pero es imposible concluir en favor del Universo «abierto», pues no toda la materia está catalogada. 5 Estas ideas se desarrollan en el libro de J. Islam: El destino Ultimo del Universo, Belfond/Sciences, 1984. Hidrógeno, deuterio, helio, que no se han formado en las estrellas.

.Así, al cabo de 10¿/ años las estrellas, apagadas todas, habrán declinado hacia los centros de las galaxias y formado agujeros negros galácticos de 1011 M®. Los movimientos de las galaxias en los cúmulos dispersarán a continuación su energía orbital en radiación gravitatoria y al cabo de 1031 años las galaxias caerán hacia el centro de los cúmulos para fusionarse en agujeros negros supergalácticos de 1015 M®. El proceso inverso de desintegración «cuántica» de los agujeros negros tendrá lugar en una escala de tiempo mucho mayor. Los agujeros negros estelares se evaporarán en 1067 años, los agujeros negros galácticos en 1097 años y los agujeros negros supergalácticos en 10106 años. Últimos depósitos de energía y de entropía, los agujeros negros se habrán convertido en los análogos de los agujeros blancos, restituyendo su materia al Universo exterior 6. Dyson finalmente se ha preguntado si, a pesar del contexto desfavorable de un Universo abocado inexorablemente a la dilución y al enfriamiento, acaso civilizaciones avanzadas no podrían mantenerse indefinidamente con vida recuperando la energía de los agujeros negros. Este escenario digno de las mejores novelas de ciencia-ficción entra en conflicto con una de las predicciones de las loterías modernas de las físicas de partículas, según la cual el protón no sería eterno sino que se desintegraría al cabo de 1032. ¡La disolución de las estructuras materiales y de los sistemas vivos entraría pues en juego mucho antes que los agujeros negros comenzasen a restituir su energía! Examinemos ahora las consecuencias de un Universo en expansión-contracción, limitado en el tiempo y finito en el espacio. La densidad mínima para que el Universo fuese cerrado será la de un agujero negro de 1023 M®, cuyo radio alcanzaría cuarenta mil millones de años-luz 8. Ahora bien, en el universo observable, la mayor distancia recorrida por la luz no sobrepasas quince mil millones de años-luz... ¡Ello significa que el Universo observable

está en el interior de su radio de Schwarzschild! ¿Hay que concluir de esto que vivamos en un gigantesco agujero negro? Profundizando sobre esta pregunta, es posible apercibirse de que numerosos argumentos teóricos vienen a afianzar la tesis del Universo-agujero negro Pero, bajo la forma «degradada» de una radiación de cuerpo negro, ver capítulo 15. Las experiencias en curso en la actualidad, destinadas a medir el tiempo de vida del protón, no han confirmado esta predicción. Recuerdo que la densidad media de un agujero negro es tanto menor cuanto mayor es su radio.

. Si el lector tiene a bien hacer un último esfuerzo de reflexión, que se vaya a la figura 47 «cartografiando» el espacio-tiempo interior y exterior de una estrella esférica en colapso. El exterior es un trozo de la geometría de Schwarzschild, el interior tiene una geometría que depende de la ecuación de estado de la materia estelar. La Relatividad General permite demostrar que si la estrella se asimila a una «nube» esférica de presión nula y densidad uniforme —es decir análoga al «gas de galaxias» que llenan el Universo—, entonces la geometría interior de la nube (representada en la figura por la zona sombreada) es estrictamente idéntica a la del Universo cerrado, empalmándose perfectamente en la superficie de la nube las geometrías interna y externa. Por otra parte, el Universo cerrado en expansión-contracción posee un horizonte de sucesos, es decir una frontera del espacio-tiempo más allá de la cual residen sucesos que nunca serán accesibles, pues sus señales luminosas nunca nos llegarán. Asociado a una singularidad del futuro (el Big Crunch), este horizonte cosmológico 9 visto desde el interior es de la misma naturaleza que el horizonte de sucesos que define la frontera del agujero negro visto desde el exterior Es posible pues suponer que si el Universo es cerrado existe un mundo exterior a la vista del cual nuestro Universo sólo es una región oculta en el fondo de un agujero negro... Es evidente que si esta tesis, aún confusa, se revelase justificada, se abriría para la Cosmología un campo de investigación totalmente virgen. Se podría por ejemplo preguntarse cómo habría llegado a ser nuestro Universo un agujero negro. ¿Habría sido un agujero negro primordial de un Cosmos exterior, o se habría formado por hundimiento gravitatorio de una «súper-estrella» de 1023 M®? En este caso, el Cosmos exterior no estaría vacío y galaxias enteras —incluso formas desconocidas de materia— podrían caer del Cosmos exterior para irrumpir en nuestro Universo. La consecuencia más atractiva del Universo-agujero negro sería la revelación de un comportamiento inesperado de la materia en el interior de los agujeros negros. El horizonte de sucesos no debe confundirse con el horizonte de partículas que, en un instante dado, es la frontera de espacio que rodea la parte del Universo observable: cf. «Geometrías de la Variedad Universo», artículo citado. 10 De hecho, el radio máximo del Universo Cerrado es estrictamente igual a su radio de Schwarzschild, tal como podría medirse por un observador exterior.

La Relatividad General predice que la contracción gravitatoria de un astro masivo por debajo de su radio de Schwarzschild debe proseguir ineluctablemente hasta el aplastamiento en una singularidad central. Pero la Relatividad General es incompleta, y en

ausencia de una teoría cuántica, de la gravitación es preciso reconocer que se ignoran totalmente las leyes que gobiernan el destino de la materia en el interior de los agujeros negros. El Universo-agujero negro en expansión-contracción tendería precisamente a probar que en el interior de un agujero negro el colapso gravitatorio puede interrumpirse antes de la singularidad. Una resistencia última de la materia —por ejemplo una interacción fuertemente repulsiva que sólo se manifieste a muy corta escala— podría hacer «rebotar» la materia de una estrella colapsada que, a semejanza del Universo entero, se pondría a oscilar indefinidamente entre un estado hiperdenso y un estado dilatado llenando el interior de la esfera de Schwarzschild. Tal comportamiento podría ser puesto en evidencia un día por una teoría unificada de todas las interacciones fundamentales, en la que las singularidades gravitatorias habrían sido eliminadas (ver capítulo 12). La tesis del Universo-agujero negro plantea finalmente la pregunta de la unicidad del Universo. ¿Cuál sería el estatus de nuestro mundo cerrado respecto al Cosmos exterior? ¿Se puede incluso considerar una jerarquía de Universos-agujeros negros encajados unos en otros? Teorías recientes de la física de partículas admiten la existencia de tales «universosburbujas». Estas especulaciones un poco extravagantes, propias para hacer soñar, tienen todavía poco predicamento en los institutos de investigación, pues, al sobrepasar con mucho el alcance de nuestros conocimientos actuales, no hacen realmente progresar la ciencia. Quizás un día tengamos algunos elementos de respuesta a estas preguntas, pero es preciso no deslumbrarse: todas las teorías están fundadas en imágenes humanas, y la realidad es siempre diferente de lo que se cree. Para captar un fragmento del mundo real h->y que trabajar con su cerebro, sus manos, medir mil veces, cortar, desconfiar de las ideas recibidas y de las teorías demasiado hermosas. La de los agujeros negros es quizás una de ella. Así, habiendo llegado a las últimas líneas de este libro ¿se debe retener una lección de él? Creo que sí. El advenimiento de los agujeros negros marca sin duda los comienzos de una Revolución en el mundo cambiante de las ideas y de las teorías, una evolución en el mundo real en el que se diseña pacientemente el destino de las estrellas, de las galaxias y del Universo en su conjunto. Pero toda revolución tiene sus trampas. Y, parafraseando un aforismo de Maurice Maeterlinck, no sería conveniente que la expresión agujero negro sea como la palabra Dios: algo que enmascare y disfrace suntuosamente nuestra ignorancia.

APÉNDICES El diagrama de Hertzsprung-Russell A principios de siglo, el astrónomo danés Ejnar Hertzsprung y al americano Henry Russell, de la universidad de Princeton, emprendieron independientemente la tarea de trazar en un diagrama la relación entre la luminosidad y la temperatura de superficie de las estrellas (Figura Al). A intervalos dados de temperatura se asocia un tipo espectral de la estrella, que va del tipo O para las estrellas calientes de «color azul» al tipo M para las estrellas menos calientes de «color rojo». El sol en la actualidad pertenece al tipo G, de color «amarillo» (temperatura de superficie: 600°K). Los puntos del diagrama no se reparten aleatoriamente sino que su posición refleja las grandes líneas de la evolución estelar. Las estrellas están reagrupadas mayoritariamente en una estrecha banda que atraviesa el diagrama en diagonal, llamada Secuencia Principal.

Este estado corresponde a la fase estable de combustión del hidrógeno en el centro de las estrellas. Se encuentran allí enanas rojas de luminosidad y radio modestos (el radio se indica entre paréntesis en unidades solares) y gigantes azules muy brillantes.

Otra acumulación de estrellas se extiende horizontalmente por encima de la Secuencia Principal. Está constituida por estrellas de gran luminosidad pero de débil temperatura, es decir las gigantes y las supergigantes rojas. Algunas estrellas de débil luminosidad pero de fuerte temperatura ocupan finalmente la región situada debajo de la Secuencia Principal; se trata de las estrellas que se han colapsado en enanas blancas. En el transcurso de su vida, una estrella individual se desplaza sobre el diagrama de Hertzprung-Russell. La evolución del Sol se representa esquemáticamente en la figura. La fase de contracción inicial le sitúa en la Secuencia Principal, donde pasará la mayor parte de su tiempo. Cuando el hidrógeno se agote en el centro, el Sol se dilatará para ganar la rama de las gigantes rojas, multiplicando su radio por 100 y su luminosidad por 1000.

Después entrará en un período de inestabilidad que se traducirá por pulsaciones, una luminosidad variable y una contradicción que aumentará su temperatura de superficie. Su destino final, que pasa por la eyección de gas en una nebulosa planetaria, es la extinción progresiva en forma de enana blanca encogida. Una estrella con una masa veinte veces superior a la del Sol tendría un recorrido diferente, quemando más rápidamente en la Secuencia Principal en forma de gigante azul, dilatándose después en supergigante roja para explotar en supernova y formar una estrella de neutrones o un agujero negro que, al emitir poca luz o nada en absoluto de ella, no encuentran su lugar en el diagrama.

El diagrama masa-densidad de los cuerpos celestes y el fin de la evolución estelar Un cuerpo celeste se mantiene en equilibrio bajo la acción de fuerzas antagónicas de compresión y de expansión. Las fuerzas de comprensión se deben, sea a las atracciones electrostáticas entre los electrones y protones que constituyen los átomos y las moléculas, sea a la gravitación que, al ser atractiva, tiene siempre tendencia a comprimir los cuerpos. En los cuerpos «calientes», las fuerzas de expansión se deben a una presión térmica pues la temperatura central es muy alta. En los cuerpos «fríos», las fuerzas de expansión se deben al principio de exclusión de la Mecánica Cuántica, que mantiene la densidad de electrones o de neutrones por encima de un determinado umbral. Cada cuerpo en equilibrio se caracteriza por una relación entre su masa y su densidad media, según que tales o cuales fuerzas antagonistas entren en juego. En la figura A2, las masas y las densidades están referidas a los valores solares (2x1033 gramos y lg/cm3), lo que sitúa al Sol en la intersección de los ejes.

Cuerpos fríos Los astros fríos, soportados por una presión cuántica, ocupan los segmentos negros gruesos en la figura. Las regiones representadas en gris están prohibidas pues corresponden a una violación del principio de exclusión. Para los cuerpos menos masivos que 10~3 M®, la fuerza de compresión dominante se debe a las atracciones electrostáticas. El estado de equilibrio es el de los planetas, caracterizado por una densidad independiente de la masa y que es la de la materia corriente (lg/cm3). El punto P marca el límite de estabilidad de los planetas, correspondiendo aproximadamente a la masa de Júpiter. Para masas mayores, la gravitación se convierte en la fuerza de compresión dominante, originando diversos estados de equilibrio fríos mucho más densos. En las enanas blancas, la presión cuántica interna se debe a los electrones degenerados. La densidad puede alcanzar una tonelada por centímetro cúbico. El punto C es el límite de Chandrasekhar, es decir la masa máxima de una enana blanca, 1,4 M®. Más allá, los electrones se hacen «relativistas», es decir animados con velocidades muy próximas a la de la luz, y ya no son capaces de asegurar el equilibrio de la enana blanca. En las estrellas de neutrones, la presión interna se debe a los neutrones degenerados. Los estados de la materia están mucho más concentrados, alcanzando la densidad de los núcleos atómicos, 1015g/cm3. El punto E marca el límite de estabilidad de las estrellas de neutrones, en aproximadamente 3 M®. Más allá, los neutrones se hacen relativistas y son incapaces de soportar la estrella. No existe ningún estado de equilibrio frío de la materia con masa superior a 3 Agujeros Negros Los agujeros negros ocupan una línea en diagonal que corta el eje de las densidades en el punto E de inestabilidad de las estrellas de neutrones y el eje de las masas en el punto L. Este último punto corresponde a las características del agujero negro de Michell y La-place: 107 M®,lg/cm3. En la medida en que únicamente la gravitación gobierna el estado del agujero negro, pueden existir en principio agujeros negros de todas las masas y de todas las densidades. Los mini-agujeros negros (parte inferior del diagrama) son poco masivos y extraordinariamente densos; los agujeros negros supermasivos (parte superior del diagrama) son por el contrario muy poco densos. Si se prolongase la línea fuera del diagrama hasta una masa de 1023 M®, se obtendría una densidad de 10~29 g/cm3, que es del mismo orden que la del Universo. Esto significa que el Universo puede ser el más amplio agujero negro de la Naturaleza. Cuerpos calientes Los astros calientes ocupan la región en blanco de la figura. El Sol y las estrellas de la Secuencia Principal se sitúan en una estrecha banda quebrada llamada isoterma termonuclear, pues corresponde a la temperatura central de 107 K requerida para que se funda el hidrógeno en helio. Las masas de las estrellas se escalonan entre 0,01 y 100 M®. Evolución estelar En el curso de su evolución, una estrella se desplaza en el diagrama masa-densidad. Su movimiento se desarrolla completamente en la zona rectangular limitada por líneas discontinuas en la figura A2, que se representa ampliada en la figura A3 . Se indican igualmente las reacciones termonucleares dominantes que tienen lugar en el centro de la estrella en los diferentes estadios de su evolución.

La tendencia general de la evolución estelar, gobernada por la gravitación, es un aumento de la densidad (movimiento hacia la parte inferior del diagrama), mientras que los fenómenos de pérdida de masa, de fragmentación, de inestabilidad o de explosión disminuyen la masa (movimiento hacia la izquierda del diagrama). El final de la evolución de un astro caliente es necesariamente uno de los tres estados fríos posibles: enana blanca, estrella de neutrones, agujero negro. • Una estrella de masa menor que aproximadamente 8 M®, sigue la curva A; después de haber abandonado la Secuencia Principal correspondiente a la transformación de hidrógeno en helio, la estrella aumenta su densidad y su temperatura centrales hasta transformar el helio en carbono. Pero el carbono permanece inerte y el trayecto de la estrella acaba en el estado de enana blanca. El trayecto B es el de un astro de mayor masa, que durante su evolución llega a quemar el carbono en magnesio. Se termina en el estado de estrella de neutrones.

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF