Temas Clave num. 63 (monográfico) de la revista "Investigación y Ciencia" sobre el universo cu&...
FÍSICA DE PARTÍCULAS
GRAVEDAD CUÁNTICA
COSMOLOGÍA
UNIFICACIÓN
Del modelo estándar a la teoría de cuerdas
Propiedades cuánticas del espaciotiempo
Los primeros instantes tras la gran explosión
¿Qué podemos esperar de una teoría final?
Universo
63
1 er TRIMESTRE 2011
UNIVERSO CUÁNTICO
cuántico
00063
9 778411 355668
6,50 EUROS
InvestigacionyCiencia.es
TEMAS 63
TEMAS 63
TEMAS 63 1er trimestre 2011
Universo cuántico 3 Presentación INTRODUCCIÓN
4 La escurridiza teoría del todo Stephen Hawking y Leonard Mlodinow PARTÍCULAS Y CUERDAS
10 La física y los diagramas de Feynman David Kaiser
20 Revolución en la física de partículas Chris Quigg
28 Unificación y dualidad en teoría de cuerdas Luis E. Ibáñez ESPACIOTIEMPO CUÁNTICO
36 Agujeros negros cuánticos Bernard J. Carr y Steven B. Giddings
44 Geometría no conmutativa y espaciotiempo cuántico José L. Fernández Barbón
54 El universo cuántico autoorganizado Jan Ambjørn, Jerzy Jurkiewicz y Renate Loll IMPLICACIONES COSMOLÓGICAS
62 El origen del universo Michael S. Turner
70 Buscando vida en el multiverso Alejandro Jenkins y Gilad Perez
78 ¿Es la teoría de cuerdas una ciencia? Dieter Lüst FUTURO
84 La teoría de cuerdas y el LHC Luis E. Ibáñez
92 Perspectivas de unificación Entrevista con Steven Weinberg
2 Tûăaĉ 63
Presentación
XXXXXXXX
El lenguaje de la naturaleza La mecánica cuántica nació hace aproximadamente un siglo. Gracias a ella, disponemos de la descripción del mundo microscópico más completa y predictiva de la historia. El modelo estándar de la física de partículas describe la dinámica de todas las partículas elementales conocidas a partir de tres interacciones fundamentales. Sin embargo, los físicos suelen achacarle dos carencias básicas. En primer lugar, no explica por qué la naturaleza parece haberse encaprichado por ese conjunto de partículas e interacciones. Por otra parte, el modelo estándar no da cuenta de la cuarta interacción fundamental: la gravitación. La formulación moderna de la gravedad nos la proporciona la teoría de la relatividad general, según la cual la masa y la energía modifican las propiedades geométricas del espaciotiempo circundante. Además de todos los efectos gravitatorios habituales, la teoría describe de manera satisfactoria la evolución del universo a gran escala. No obstante, su problema radica en las profundas inconsistencias matemáticas que aparecen al intentar formular una versión de la teoría compatible con la mecánica cuántica. Los físicos cuentan con muy buenas razones para pensar que también la gravedad debería quedar descrita por un formalismo cuántico. Generaciones de mentes brillantes llevan decenios persiguiendo ese objetivo. En el camino, han aparecido cuestiones de una riqueza y profundidad sorprendentes. Algunas son relativas a la estructura microscópica del espaciotiempo; otras, al origen, evolución y estructura del universo como un todo. El presente monográfico intenta ofrecer al lector una muestra del recorrido que acabamos de esbozar. La primera parte comienza con una introducción a la teoría cuántica de campos perturbativa. Narrados en clave histórica, los conceptos que expone el artículo de David Kaiser constituyen el lenguaje natural de la física de partículas moderna. Chris Quigg se sirve de una perspectiva experimental para introducir el modelo estándar (con énfasis en la ruptura de simetría electrodébil y la necesidad del bosón de Higgs) y una de sus extensiones más estudiadas (la supersimetría).
InvestigacionyCiencia.es
Luis E. Ibáñez presenta una introducción a la teoría de cuerdas, la extensión de la física de partículas y la candidata a una teoría cuántica de la gravedad que más atención ha recibido en las últimas décadas. El artículo apareció en IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa cuando la teoría vivía lo que ha dado en llamarse su «segunda revolución»: la debida al descubrimiento de las relaciones de dualidad (equivalencia) entre las diferentes teorías de cuerdas. Es este un concepto central a la estructura formal de la teoría que, además, motiva las consideraciones filosóficas que Stephen Hawking y Leonard Mlodinow exponen en el breve ensayo que reproducimos aquí. En lo que se refiere a algunos aspectos cuánticos de la gravitación, el artículo de Bernard J. Carr y Steven B. Giddings llama la atención sobre la importancia que revisten las propiedades cuánticas de los agujeros negros. Aunque se suele pensar en ellos como en gigantescos objetos astrofísicos ajenos a las leyes de la mecánica cuántica, el resultado semiclásico de Stephen Hawking de 1974 sobre sus procesos de emisión los convirtió en una «piedra de Rosetta» de la gravitación cuántica. Su estudio ha propiciado algunos de los avances más profundos en el campo, como el principio holográfico. En cuanto a otras implicaciones cuánticas sobre la estructura microscópica del espaciotiempo, hemos seleccionado aquí
un ejemplo proveniente de la teoría de cuerdas (la geometría no conmutativa) y otro ajeno a ella (la naturaleza fractal del espaciotiempo, según la propuesta de las triangulaciones dinámicas causales). El alcance de estas investigaciones no se limita al mundo de lo microscópico. Tiene también implicaciones cosmológicas. La física de partículas y la gravedad cuántica hubieron de dejar su impronta en los primeros instantes tras la gran explosión, con consecuencias para la evolución y el futuro del universo. Pero algunos modelos van más allá y postulan la existencia de otros universos. Motivados por las cuestiones que plantea el principio antrópico, Alejandro Jenkins y Gilad Pérez exploran la variedad de leyes físicas en otros universos. Por último, Dieter Lüst nos explica por qué la teoría de cuerdas parece requerir un número exorbitante de universos; en una exposición no exenta de cierta autocrítica, desarrolla las evidentes cuestiones filosóficas que suscita la idea. ¿Veremos en el futuro alguna consecuencia experimental de tales especulaciones teóricas? Las perspectivas experimentales que ofrecerá el Gran Colisionador de Hadrones (LHC) del CERN y las reflexiones al respecto de Steven Weinberg, uno de los padres del modelo estándar, cierran este monográfico.
UĄÿČûĈĉo ùċħĄĊÿùo 3
XXXXXXXX
4 Tûăaĉ 63
1er Trimestre 2011
Artículo publicado en Investigación y Ciencia, n.o 411
INTRODUCCIÓN
La
(escurridiza)
teoría
del todo
Durante años, los físicos han buscado la teoría final que habría de unificar toda la física. Sin embargo, puede que tengan que acostumbrarse a convivir con varias Stephen Hawking y Leonard Mlodinow
BARRON STOREY
EN SÍNTESIS
El trabajo de Stephen Hawking sobre los agujeros negros y el origen del universo puede calificarse como uno de los pasos más concretos encaminados a conciliar la gravedad y la física cuántica en una teoría del todo.
InvestigacionyCiencia.es
Hoy día, la teoría de cuerdas constituye el principal candidato unificador. Sin embargo, esta admite cinco formulaciones, cada una de las cuales solo es aplicable en un conjunto restringido de situaciones.
Esas cinco teorías de cuerdas se hallan conectadas matemáticamente mediante relaciones de dualidad. Dicha red, denominada de manera enigmática teoría M, bien podría ser la teoría final.
En su obra El gran diseño, los autores argumentan que la búsqueda de una teoría final quizá no produzca un conjunto único de ecuaciones. Toda teoría, afirman, lleva asociado su propio modelo de realidad. Este breve ensayo está basado en la obra.
UĄÿČûĈĉo ùċħĄĊÿùo 5
H
aùû ċĄoĉ aĺoĉ, ûĂ aďċĄĊaăÿûĄĊo úû MoĄĐa, ûĄ IĊaĂÿa, ĆĈoþÿøÿĶ a los habitantes de la localidad alojar peces en peceras curvas. Los artífices de la medida argumentaban sobre la crueldad de tales recipientes, ya que la forma de sus paredes proporcionaba al pez una visión distorsionada de la realidad. Aparte de la importancia de la medida para los pobres peces, la historia nos plantea una pregunta filosófica: ¿cómo sabemos que la realidad que percibimos es cierta? El pez cuenta con una visión de la realidad diferente de la nuestra, pero ¿podemos asegurar que es menos real? Por lo que sabemos, también nosotros podríamos habernos pasado la vida entera mirando a través de una lente que lo distorsionara todo.
En física la cuestión no es académica. De hecho, físicos y cosmólogos nos hallamos en una situación similar a la del pez. Durante décadas hemos luchado por hallar una teoría del todo: un conjunto completo y coherente de leyes fundamentales de la naturaleza que expliquen cada aspecto de la realidad. Sin embargo, puede que el resultado de dicha búsqueda no sea una teoría única, sino un conjunto de teorías interconectadas, cada una de las cuales describe su propia versión de la realidad, como si viera el universo a través de su pecera particular. Puede que semejante idea resulte difícil de aceptar para muchos, incluidos algunos científicos en activo. La mayoría de la gente cree que existe algo así como una realidad objetiva y que nuestros sentidos y la ciencia nos aportan información directa acerca del mundo. La ciencia tradicional se basa en la creencia de que existe un mundo exterior con propiedades bien definidas e independientes del observador. En filosofía, tal creencia se denomina realismo. Sin embargo, aquellos que recuerden a Timothy Leary y su defensa de la cultura psicodélica en los años sesenta saben de otra posibilidad: el concepto de realidad puede depender de la mente del observador. Los diferentes matices en la interpretación de este punto de vista han dado lugar a doctrinas como el antirrealismo, el instrumentalismo o el idealismo. De acuerdo con las mismas, el mundo que conocemos no es sino un constructo de la mente. La estructura interpretativa de nuestro cerebro emplea los datos sensoriales como materia prima y, a partir de ellos, da forma al mundo que percibimos. Puede que esta idea resulte difícil de aceptar, pero no es complicada de entender. A fin de cuentas, no hay forma de excluir al observador (nosotros) de su percepción del mundo. La manera en que la física ha evolucionado hasta nuestros días ha hecho del realismo una postura cada vez más difícil de defender. En física clásica (la física de Newton, que de manera tan precisa describe nuestra experiencia cotidiana), la interpretación de términos como objeto o posición se halla de acuerdo, en gran medida, con la comprensión «realista» que emana de nuestro sentido común. Pero, como aparatos de medida, los humanos dejamos bastante que desear. Hoy sabemos que los objetos comunes y la luz que empleamos para verlos se hallan compuestos por ciertas partículas (como electrones y fotones) que no percibimos de manera directa. Y las leyes que gobiernan el comportamiento de las mismas no son las de la física clásica, sino las de la mecánica cuántica. La realidad que describe la teoría cuántica supone una ruptura radical con respecto a la de la física clásica. En mecánica
6 Tûăaĉ 63
cuántica las partículas no poseen posiciones ni velocidades definidas. Solo adquieren tales atributos cuando un observador los mide. En algunos casos, los objetos individuales ni siquiera tienen una existencia independiente, sino que existen solo como parte de un conjunto mayor. La física cuántica también acarrea importantes implicaciones para nuestro concepto del pasado. En física clásica, el pasado existe como una serie definida de eventos. Pero, en física cuántica, el pasado (al igual que el futuro) es indefinido y existe solo como un espectro de posibilidades. Incluso el universo como un todo no tiene un único pasado o historia. La física cuántica nos presenta una realidad muy diferente de la de la física clásica, por más que esta última concuerde con nuestra intuición y nos permita levantar edificios o puentes. Tales ejemplos sugieren una interesante conclusión sobre la forma en que debemos interpretar la ciencia moderna: en nuestra opinión, el concepto de realidad nunca es independiente de la teoría usada para explicarla. En consecuencia, adoptamos un punto de vista que denominamos realismo dependiente del modelo: la idea de que una teoría física o una imagen del mundo consiste en un modelo (por lo general, de naturaleza matemática) y un conjunto de reglas que conectan los elementos del modelo con las observaciones. De acuerdo con esta doctrina, carece de sentido preguntarse si un modelo es real. Lo único que procede cuestionarse es si este se halla o no en acuerdo con las observaciones. Si dos modelos concuerdan con el experimento, ninguno de ellos puede considerarse más real que el otro. Uno siempre será libre de elegir el que le resulte más conveniente para describir la situación considerada. CONSTRUCCIÓN DE MODELOS
La idea de las realidades alternativas constituye un tema recurrente en la cultura popular. En el filme de ciencia ficción Matrix, los humanos viven, sin saberlo, en una realidad virtual generada por ordenadores inteligentes a fin de mantenerlos pacíficos e ignorantes del hecho de que, mientras tanto, las máquinas succionan su energía bioeléctrica —sea lo que sea esto—. ¿Cómo sabemos que no somos personajes generados por ordenador que viven en un mundo como el de Matrix? Si viviéramos en un mundo virtual, los sucesos no tendrían por qué seguir ninguna lógica ni por qué obedecer ley alguna. Los extraterrestres al mando de esa realidad quizá encontrasen interesante o divertido observar nuestra reacción si, de pronto, todo el mundo decidiera que el chocolate es repulsivo o que declarar la guerra carece de sentido. Algo así nunca ha sucedido.
1er Trimestre 2011
BARRON STOREY
Pero, si los extraterrestres creasen leyes físicas coherentes, no habría forma de discernir otra realidad detrás de la simulada. Resulta tentador llamar «mundo real» a aquel en el que viven los extraterrestres y «mundo falso» al generado por ordenador. Pero si (como nosotros) los seres en el mundo simulado no pudieran observar su universo desde fuera, tampoco tendrían ninguna razón para dudar de su representación de la realidad. Los peces se encuentran en una situación similar. Su visión no es la misma que la nuestra, pero siempre podrían formular leyes científicas que rigiesen el movimiento de los objetos exteriores. Puesto que la luz se curva al pasar del aire al agua, un objeto que, visto desde fuera, se moviese con velocidad constante y en línea recta sería visto por el pez como si siguiese una trayectoria curva. Pero el pez podría formular leyes científicas desde su sistema de referencia distorsionado. Las mismas siempre serían ciertas y le permitirían predecir el movimiento de los objetos fuera de la pecera. Sus leyes serían más complicadas que las nuestras, pero la simplicidad no es más que una cuestión de gusto. Si el pez formulara su teoría, tendríamos que admitir su punto de vista como una descripción válida de la realidad. Un conocido ejemplo lo constituyen el modelo geocéntrico de Ptolomeo y el modelo heliocéntrico de Copérnico. Aunque suele decirse que Copérnico invalidó el modelo de Ptolomeo, semejante conclusión es falsa. Al igual que en el ejemplo del pez, uno puede usar cualquiera de las dos descripciones como modelo del universo. Con independencia de nuestras suposiciones acerca de qué cuerpo, la Tierra o el Sol, se halla en reposo, ambas teorías explican las observaciones celestes. A pesar de su importancia en los debates filosóficos sobre la naturaleza del universo, la única ventaja del sistema copernicano reside en que las ecuaciones se tornan mucho más sencillas si elegimos como sistema de referencia aquel en el que el Sol se encuentra en reposo. El realismo dependiente del modelo no solo se aplica a los modelos científicos, sino también a los modelos (conscientes o inconscientes) que todos empleamos para interpretar el mundo cotidiano. Nuestro cerebro procesa un tosco caudal de datos procedentes del nervio óptico. Combina la información que le
InvestigacionyCiencia.es
proporcionan ambos ojos, mejora la resolución y completa los espacios en blanco, como el que se produce en el punto ciego. Además, genera la impresión de un espacio tridimensional a partir de los datos en dos dimensiones que envía la retina. Cuando vemos una silla, solo empleamos la luz reflejada por el objeto para construir una imagen mental (o modelo) de la silla. La eficacia de nuestro cerebro a la hora de construir modelos es tal que, aunque nos hallemos provistos de gafas que invierten la imagen, el cerebro la modificará y, al poco, la silla volverá a aparecer en su posición habitual (con algo de suerte, antes de que intentemos sentarnos). DESTELLOS DE UNA TEORÍA PROFUNDA
En la búsqueda en pos de leyes definitivas de la física, ningún candidato ha generado mayor esperanza —ni más controver-
UĄÿČûĈĉo ùċħĄĊÿùo 7
COLABORADORES DE ESTE NÚMERO Asesoramiento y traducción: Daniel Cremades: La escurridiza teoría del todo, Perspectivas de unificación; Ramón Pascual: La física y los diagramas de Feynman, Agujeros negros cuánticos, El universo cuántico autoorganizado; Luis Bou: Revolución en la física de partículas; M.a Rosa Zapatero Osorio: El origen del universo; Ernesto Lozano Tellechea: Buscando vida en el multiverso; Raquel Santamarta: ¿Es la teoría de cuerdas una ciencia? PORTADA: Keith Peters
INVESTIGACIÓN Y CIENCIA DIRECTORA GENERAL Pilar Bronchal Garfella DIRECTORA EDITORIAL Laia Torres Casas EDICIONES Anna Ferran Cabeza, Ernesto Lozano Tellechea, Yvonne Buchholz PRODUCCIÓN M.a Cruz Iglesias Capón, Albert Marín Garau SECRETARÍA Purificación Mayoral Martínez ADMINISTRACIÓN Victoria Andrés Laiglesia SUSCRIPCIONES Concepción Orenes Delgado, Olga Blanco Romero
EDITA Prensa Científica, S.A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Teléfono 934 143 344 Fax 934 145 413 e-mail
[email protected] www.investigacionyciencia.es
SCIENTIFIC AMERICAN EDITOR IN CHIEF Mariette DiChristina EXECUTIVE EDITOR Fred Guterl MANAGING EDITOR Ricki L. Rusting MANAGING EDITOR, ONLINE Philip M. Yam DESIGN DIRECTOR Michael Mrak SENIOR WRITER Gary Stix EDITORS Davide Castelvecchi, Mark Fischetti, Christine Gorman, Anna Kuchment, Michael Moyer, George Musser, Kate Wong CONTRIBUTING EDITORS Mark Alpert, Steven Ashley, Graham P. Collins, John Rennie, Sarah Simpson ART DIRECTOR, INFORMATION GRAPHICS Jen Christiansen MANAGING PRODUCTION EDITOR Richard Hunt PRESIDENT Steven Inchcoombe EXECUTIVE VICE PRESIDENT Michael Florek MANAGING DIRECTOR, CONSUMER MARKETING Christian Dorbandt VICE PRESIDENT AND PUBLISHER Bruce Brandfon
DISTRIBUCIÓN para España: LOGISTA, S. A. Pol. Ind. Pinares Llanos - Electricistas, 3 28670 Villaviciosa de Odón (Madrid) Teléfono 916 657 158 para los restantes países: Prensa Científica, S. A. Muntaner, 339 pral. 1.ª - 08021 Barcelona PUBLICIDAD Teresa Martí Marco Muntaner, 339 pral. 1.ª 08021 Barcelona Tel. 934 143 344 - Móvil 653 340 243
[email protected]
Copyright © 2011 Scientific American Inc., 75 Varick Street, New York, NY 10013-1917. Copyright © 2011 Prensa Científica S.A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor de la revista. El nombre y la marca comercial SCIENTIFIC AMERICAN, así como el logotipo correspondiente, son propiedad exclusiva de Scientific American, Inc., con cuya licencia se utilizan aquí. ISSN 0210136X
Dep. legal: B. 38.999 – 76
Imprime Printer Industria Gráfica Ctra. N-II, km 600 08620 Sant Vicenç dels Horts (Barcelona) Printed in Spain - Impreso en España
8 Tûăaĉ 63
sia— que la teoría de cuerdas. Esta se propuso en la década de los setenta como un intento de unificar todas las fuerzas de la naturaleza en un esquema coherente que, en particular, lograría compatibilizar la fuerza de la gravedad con las leyes de la física cuántica. Sin embargo, a principios de los noventa se descubrió que la teoría adolecía de un serio inconveniente: no había una única teoría de cuerdas, sino cinco. El asunto dejaba en bastante mala posición a quienes propugnaban que la teoría de cuerdas constituía la única teoría del todo. Sin embargo, a mediados de los noventa se descubrió que esas cinco teorías (a las que se sumó otra más, la teoría de supergravedad en once dimensiones) describían, en realidad, los mismos fenómenos. Ello hizo que muchos albergasen la esperanza de que, algún día, todas esas versiones llegarían a unirse en una sola teoría. Todas ellas se encuentran relacionadas por dualidades: una especie de diccionarios matemáticos que traducen conceptos de una teoría a otra. Por desgracia, cada teoría solo describe adecuadamente los fenómenos bajo determinadas condiciones (por ejemplo, a bajas energías), pero ninguna logra describir por sí sola cada aspecto del universo. Hoy día, los físicos se hallan convencidos de que las cinco teorías de cuerdas solo representan aproximaciones diferentes a una teoría más fundamental, a la que se ha dado en llamar teoría M. (Nadie parece saber a qué alude la «M»; quizás a «maestro», «milagro», «misterio», o a las tres a la vez.) Si bien es cierto que aún seguimos tratando de descifrar sus características, se diría que la esperanza de hallar una única teoría de la naturaleza se ha vuelto insostenible. Parece que, para explicar el universo, hemos de emplear una teoría u otra en función de la situación que deseemos describir. En este sentido, la teoría M no es una teoría en el sentido habitual, sino un conjunto de teorías. Ocurre con ella algo parecido a lo que sucede con los mapas: para representar de manera fidedigna la superficie de la Tierra sobre un plano, hemos de usar una colección de mapas, cada uno de los cuales cubre una región limitada. Los mapas se solapan y, en las zonas donde lo hacen, muestran el mismo paisaje. De manera similar, los miembros de la familia de la teoría M quizá parezcan muy diferentes, pero todos ellos pueden entenderse como versiones de una misma teoría subyacente. Y, en las zonas donde se solapan, todas ellas predicen los mismos fenómenos, si bien ninguna funciona bien en todas las situaciones. Siempre que desarrollamos un modelo del mundo que tiene éxito en algún aspecto tendemos a atribuirle la cualidad de realidad o de verdad absoluta. Pero la teoría M, como el ejemplo del pez, muestra que una misma situación física puede modelizarse de varias maneras, cada una de las cuales emplea diferentes conceptos y elementos fundamentales. Es posible que para describir el universo hayamos de emplear teorías diferentes en situaciones distintas, y puede que cada teoría implique su propia versión de la realidad. Pero, de acuerdo con el realismo dependiente del modelo, tal diversidad es aceptable y ninguna de las versiones puede arrogarse la cualidad de ser más real que las restantes. Esto no se corresponde con lo que, a lo largo de la historia, los físicos han esperado de una teoría de la naturaleza. Tampoco casa bien con nuestra idea habitual de realidad. Pero quizá sea la manera en que el universo hace las cosas. PA R A S A B E R M Á S
La teoría M. Michael J. Duff en Investigación y Ciencia, abril de 1998. El espacio, ¿una ilusión? Juan Maldacena en Investigación y Ciencia, enero de 2006. El gran diseño. Stephen Hawking y Leonard Mlodinow. Editorial Crítica, 2010.
1er Trimestre 2011
KEITH PETERS
Partículas y cuerdas
Artículo publicado en Investigación y Ciencia, n.o 348
PA R T Í C U L A S Y C U E R DA S
La física y los diagramas de Feynman En manos de la primera generación de físicos de la posguerra, un artificio de cálculo ideado para sacar a la electrodinámica cuántica del callejón sin salida en que se hallaba acabaría transformando la física David Kaiser
A
G o Ga o , o o o o que tanto contribuyó a la creación de la teoría de la gran explosión, le placía explicar qué le gustaba más de su oficio: podía recostarse en un sofá y cerrar los ojos sin que nadie supiese discernir si estaba trabajando o no. Buen humor, pero mala representación del trabajo cotidiano de los físicos teóricos. Durante demasiado tiempo, físicos, historiadores y filósofos se tomaron la broma de Gamow en serio. La investigación teórica, se nos decía, se refiere a pensamientos abstractos que nada tienen que ver con esfuerzos, actividades o mañas. Las teorías, las visiones del mundo o los paradigmas parecían las unidades apropiadas de análisis; de describir el nacimiento y el desarrollo conceptual de ideas concretas se trataba. Conforme a tal punto de vista, apenas importaba el manejo experto de instrumentos. Las ideas, incorporadas a textos, pasaban fácilmente de teórico a teórico, libres de las limitaciones
materiales con que pugnaban los físicos experimentales, atados a sus microscopios electrónicos, sus aceleradores o sus cámaras de burbujas. La mente contra la mano: nuestra concepción del progreso de la física, que imagina un reino de las ideas puramente cognoscitivo, separado por completo del reino manual de la acción, plasma esa contraposición. Esta manera de entender la actividad de los teóricos, estoy convencido, aporta más oscuridad que luz. Desde mediados del siglo , la mayoría de los teóricos no ha pasado sus días (ni, en verdad, sus noches) en el mundo de ensueño de los conceptos incorpóreos de algún filósofo. Su tarea principal ha sido calcular. Los teóricos juguetean con modelos y estiman efectos, con el objeto siempre de reducir a representaciones manejables la confusión inherente tanto a las pruebas experimentales u observables como a la posibilidad matemática. Los instrumentos de cálculo median entre diversas clases de representaciones del mundo natural y proporcionan la base del trabajo diario.
EN SÍNTESIS
La teoría cuántica de campos constituye el formalismo en el que se basa la concepción moderna de la física de partículas.
10 T
a 63
Richard Feynman contribuyó en gran medida a su desarrollo. Los diagramas que llevan su nombre se han convertido en una herramienta de cálculo básica.
En los diagramas, las complejas interacciones entre partículas se expresan como una suma que incluye todos los intercambios posibles de partículas virtuales.
Freeman Dyson demostró la equivalencia entre el método de Feynman y otros mucho más abstractos, como el propuesto por Julian Schwinger.
1er Trimestre 2011
STEVE MALONE/SANTA BARBARA NEWSPRESS/AMERICAN SCIENTIST
Los diagramas de Feynman se idearon en 1948 para que la electrodinámica saliera del piélago de cálculos en que había encallado. Llenan desde entonces las pizarras del mundo entero; son métodos esenciales en los cálculos de la física teórica. Aquí, David Gross (centro) —en una fotografía tomada poco después de que le concedieran el premio Nobel de física del año 2004, junto a H. David Politzer y Frank Wilczek— utiliza un diagrama mientras razona sobre resultados recientes de la cromodinámica cuántica obtenidos a partir de la teoría de cuerdas con Gerard ‘t Hooft (a la derecha), premio nóbel de 1999, y los investigadores postdoctorales Michael Haack y Marcus Berg, de la Universidad de California en Santa Barbara. Gracias al descubrimiento de Gross, Politzer y Wilczek de 1973 se han podido aplicar con éxito los diagramas en cromodinámica cuántica.
He centrado mi investigación en los útiles de trabajo de la física teórica, en particular en uno de los instrumentos más importantes con que cuentan los teóricos: los diagramas de Feynman. Desde la mitad del siglo , los físicos teóricos han recurrido cada vez más a esta herramienta para abordar cálculos de la mayor importancia. Los diagramas de Feynman han revolucionado casi todos los aspectos de la física teórica. Cierto es que ningún instrumento se aplica solo; menos aún interpreta los resultados a que conduce y saca conclusiones científicas de ellos. Cuando los diagramas de Feynman aparecieron en el utillaje de la física, los teóricos tuvieron que aprender a usarlos e interpretarlos. He estudiado, por lo tanto, los pasos que llevaron a que los diagramas de Feynman se ganaran su primacía. Richard Feynman presentó sus diagramas a finales de los años cuarenta. Los ofrecía como un artificio contable que simplificaba cálculos muy largos en un área de la física: la electrodinámica cuántica (QED, por sus siglas en inglés), o descripción mecanocuántica de las fuerzas electromagnéticas. Los diagramas se emplearían enseguida en física nuclear y de partículas. No mucho tiempo después, otros teóricos adoptaron —y sutilmente adaptaron— los diagramas de Feynman para solucionar problemas de muchos cuerpos en teoría del estado sólido. Ha-
InvestigacionyCiencia.es
cia finales de los años sesenta, se emplearon versiones de los dibujos de líneas de Feynman incluso para cálculos de física gravitacional. Gracias a los diagramas, todo un panorama de nuevos cálculos se abrió ante los físicos. Los teóricos efectuaron cálculos que antes de la Segunda Guerra Mundial pocos habrían soñado que fueran posibles. Cabe decir que la física no puede progresar más rápido que la destreza de los físicos en calcular. Así, de la misma manera que los cálculos con ordenador están propiciando hoy una revolución en genómica, los diagramas de Feynman transformaron el modo en que los físicos veían el mundo y el lugar que ocupan en él. PEGADOS AL FANGO
Feynman introdujo sus nuevos diagramas durante una reunión celebrada en una posada, Pocono Manor Inn, de la Pennsylvania rural. Los veintiocho físicos teóricos invitados a la reunión mantuvieron allí durante varios días de la primavera de 1948 debates muy animados. La mayoría de los teóricos jóvenes se dedicaban a los problemas de la electrodinámica cuántica. Y tales problemas eran, como dicen los físicos, «no triviales». La electrodinámica cuántica ofrece una explicación mecanocuántica de la fuerza electromagnética (la fuerza física por
U
o
o 11
LA IDEA
Partículas virtuales La colisión electrón-electrón se describe mediante uno de los diagramas de Feynman que primero se publicaron. Un electrón (línea continua de la parte inferior derecha) emite una partícula transmisora de la fuerza —un fotón virtual (línea ondulada)— que incide en el segundo electrón (línea continua de la parte inferior izquierda). El primer electrón retrocede y el segundo se desvía de su trayectoria original. El diagrama esquematiza así la versión mecanocuántica de la repulsión entre partículas dotadas de la misma carga. Tal y como sugiere la expresión «enfoque espaciotemporal» que daba título al artículo que contenía este diagrama, Feynman dibujó diagramas donde las dimensiones eran el espacio y el tiempo; aquí, el eje horizontal representa el espacio. La mayoría de los físicos dibujan hoy día los diagramas de Feynman de una manera más estilizada, que resalta la topología de las líneas de la propagación y de los vértices.
Tiempo
Cuanto virtual
Electrones
12 T
a 63
la que las cargas del mismo signo se repelen entre sí y las de signo opuesto se atraen). En QED, los electrones y las otras partículas fundamentales intercambian fotones virtuales —fantasmagóricas partículas de luz— que sirven de portadores de esta fuerza. Una partícula virtual toma prestada energía del vacío y, por poco tiempo, existe tras salir (entiéndase al pie de la letra) de la nada. Las partículas virtuales deben devolver rápidamente la energía tomada en préstamo y abandonar su existencia; sucede a escalas de tiempo establecidas por el principio de incertidumbre de Werner Heisenberg. Dos problemas imponentes frustraban los cálculos de la electrodinámica cuántica. Veamos el primero: desde principios de los años treinta se sabía que la QED, en cuanto se procedía más allá de sus grados de aproximación más simples, dejaba de ofrecer respuestas finitas; los infinitos que producía entonces carecían de sentido físico. Cuando se planteaban preguntas que parecían sencillas —por ejemplo, ¿cuál es la probabilidad de que dos electrones colisionen?—, los teóricos daban respuestas razonables con aproximaciones aceptables. Pero en cuanto intentaban llevar sus cálculos más lejos, es decir, refinar sus primeras aproximaciones, las ecuaciones fallaban. El problema era que los fotones virtuales podían tomar prestada cualquier cantidad de energía, incluso una energía infinita, siempre que la devolvieran con la presteza debida. Los infinitos surgían por doquier en las ecuaciones; los cálculos arrojaban resultados infinitos, no las cantidades finitas que debían responder a la pregunta que se planteaba. Pasemos al segundo problema que acechaba las tentativas de calcular con la QED: el formalismo era a todas luces incómodo, una pesadilla algebraica con un sinfín de términos a tomar en cuenta y evaluar. En principio, los electrones podían intercambiar un número cualquiera de fotones virtuales. Cuantos más fotones intervenían, más complicadas eran las ecuaciones correspondientes. El cálculo mecanocuántico obligaba a tomar en cuenta cada situación y sumar todas las contribuciones. No se perdió toda esperanza, al menos al principio. Heisenberg, Wolfgang Pauli, Paul Dirac y los demás arquitectos de la QED de la entreguerra sabían que podían aproximar estos cálculos infinitamente complicados porque la carga del electrón (e) es pequeña: e2 ≈ 1/137 cuando se escogen las unidades apropiadas. La carga de los electrones gobernaba la intensidad de su propia interacción con los fotones que transmitían la fuerza: siempre que un par de electrones intercambiaban un fotón más, las ecuaciones que describían el intercambio ganaban otro factor que multiplicaba por ese pequeño número e2 (véase el recuadro «Calcular con los diagramas de Feynman»).
1er Trimestre 2011
CORTESÍA DE EMILIO SEGRE VISUAL ARCHIVES, INSTITUTO AMERICANO DE FÍSICA (fotografía); REPRODUCIDOS DE «SPACE-TIME APPROACH TO QUANTUM ELECTRODYNAMICS», DE RICHARD FEYNMAN, CON PERMISO DE LA AMERICAN PHYSICAL SOCIETY (esquema)/AMERICAN SCIENTIST
Richard Feynman y otros físicos reunidos en junio de 1947 en Shelter Island, Nueva York. La escena se produjo varios meses antes de la conferencia de Pocono Manor Inn, en la que Feynman presentó sus diagramas. De pie están Willis Lamb (a la izquierda) y John Wheeler. Sentados, de izquierda a derecha, Abraham Pais, Richard Feynman, Hermann Feshbach y Julian Schwinger.
T E O R Í A D E P E RT U R BAC I O N E S
Calcular con los diagramas de Feynman Los diagramas de Feynman son una potente herramienta para calcular en la teoría cuántica. Como en cualquier cálculo mecanocuántico, se trata de obtener un número complejo (la amplitud de probabilidad), cuyo módulo al cuadrado da una probabilidad: si A(t, x) representa la amplitud de que una partícula se encuentre en el punto x en el instante t, entonces, la probabilidad de encontrar la partícula allí en aquel instante es |A(t, x)|2. En QED, las amplitudes se componen de algunos ingredientes básicos, cada uno de los cuales tiene una expresión matemática asociada. Como ejemplo, podría escribirse: B(x,y): amplitud de que un electrón virtual viaje imperturbado de x a y; C(x,y): amplitud de que un fotón virtual viaje imperturbado de x a y; eD: amplitud de que el electrón y el fotón choquen. Aquí e es la carga del electrón, que gobierna la intensidad con la que interaccionan los electrones y los fotones. Feynman introdujo sus diagramas para tener en cuenta todas estas posibilidades. Las reglas de uso de los diagramas no son complicadas. En cada vértice se dibujan dos líneas de electrón que se encuentran con una línea de fotón. Se dibujan todas las maneras topológicamente distintas en que los electrones y los fotones pueden colisionar. Se construye luego una ecuación: se ponen los factores B(x,y) en cada línea virtual electrónica, C(x,y) en cada línea virtual fotónica, eD en cada vértice y se integra sobre todos los puntos donde intervengan partículas virtuales. Como e es tan pequeño (e2 ≈ 1/137, en unidades apropiadas), los diagramas que tengan menos vértices tienden a contribuir más a la amplitud total que los diagramas complicados, que contienen potencias más altas de este pequeño número. Los físicos pueden aproximar una amplitud A construida así escribiéndola como una serie de términos cada vez más complicados. Por ejemplo, consideremos la dispersión de un electrón por un campo electromagnético. Según la mecánica cuántica, el campo se puede describir como una colección de fotones. En el caso más simple, el electrón (línea verde) colisionará solo una vez con un único fotón (línea roja) en solo un vértice (el círculo azul en el punto x0):
x0
A(1) = eD
AMERICAN SCIENTIST
En este diagrama aparecen solo partículas reales, no virtuales, de manera que la única contribución a la amplitud viene del vértice.
El intercambio de un solo fotón entre electrones tenía como «peso» un factor e2, mientras que el intercambio de dos fotones llevaba el factor e4, mucho más pequeño. Es decir, la contribución de ese intercambio doble no será ni una centésima de la contribución del intercambio de un solo fotón. El término correspondiente a un intercambio de tres fotones (con un factor e6) sería diez mil veces menor que el término correspondiente al intercambio de un fotón, y así sucesivamente. Aunque el cálculo completo se extiende, en principio, hasta incluir un número infinito de contribuciones distintas, en la práctica cualquier cálculo determinado podía truncarse al cabo de unos pocos términos. Esta manera de proceder lleva el nom-
InvestigacionyCiencia.es
Pero al electrón pueden acaecerle otros fenómenos. En el siguiente nivel de complejidad, el electrón entrante puede desprender un fotón virtual antes de colisionar con el campo electromagnético y reabsorber el fotón virtual en un punto posterior:
x0 x2
x1
A(2) = e3 D B(1,0) D B(0,2) D C(1,2)
En este diagrama más complicado, las líneas del electrón y las líneas del fotón se encuentran en tres lugares y, por lo tanto, la amplitud para esta contribución es proporcional a e3. Aún pueden suceder cosas más complicadas. En el nivel siguiente de complejidad, aparecen siete diagramas de Feynman distintos:
Como ejemplo, traduzcamos el diagrama superior izquierdo en su amplitud asociada:
x0
x2 x4
x1
x3
A(3)a = e5 D B(1,0) D B(0,2) D C(1,3) D B(3,4) D B(4,3) C(4,2) La amplitud total de que un electrón interaccione con el campo electromagnético se escribe entonces: A = A(1) + A(2) + A(3)a + A(3)b + A(3)c + ... y la probabilidad de esta interacción es |A|2. Robert Karplus y Norman Kroll abordaron este tipo de cálculos con diagramas de Feynman en 1949; ocho años más tarde, otros encontraron una serie de errores algebraicos en el cálculo, cuya corrección solo afectaba a la quinta cifra decimal de su respuesta original. Desde los años ochenta, Tom Kinoshita (de Cornell) ha recorrido todo el itinerario hasta los diagramas que contienen ocho vértices, un cálculo que abarca 891 diagramas de Feynman distintos, con una precisión de hasta trece cifras decimales.
bre de «cálculo de perturbaciones»: los teóricos podían aproximarse al resultado completo guardando solo esos pocos términos que daban la mayor contribución, ya que esperaban que los demás términos aportaran solo correcciones numéricamente insignificantes. Este método, en apariencia tan simple, presentaba en la práctica dificultades extraordinarias. Uno de los doctorandos de Heisenberg había afrontado un cálculo en e4 a mitad de los años treinta —solo la primera ronda de términos correctivos—; enseguida se topó con cientos de términos distintos. Cada contribución al cálculo total ocupaba más de cuatro o cinco líneas de símbolos matemáticos. ¡Qué fácil era que en esa maraña alge-
U
o
o 13
vector de matrices de Dirac (disposiciones de números ligados al espín del electrón). Habiendo cedido parte de su energía y de su momento, el electrón de la derecha se movería de x6 a x4, de manera parecida a como un cazador retrocede al disparar el rifle. El electrón de la izquierda, mientras tanto, tras absorber el fotón y, por lo tanto, ganar algo de energía y de momento, se dispersaría de x5 a x3. En manos de Feynman, este diagrama representaba la expresión matemática (escrita con las abreviaturas K+ y +):
e2 d4x5 d4x6 K+(3,5) K+(4,6) +(s562) K+(5,1) K+(6,2).
Freeman Dyson (derecha), retratado con Victor Weisskopf en un barco con rumbo a Copenhague en 1952, contribuyó como nadie a la difusión de los diagramas de Feynman. La deducción y la explicación de Dyson de los diagramas indicaban su método de aplicación. Los investigadores postdoctorales a los que instruyó en el Instituto de Estudios Avanzados de Princeton, durante el tiempo que pasó allí, extendieron el uso de los diagramas a otras instituciones.
braica se juntasen, o peor aún, se omitieran términos! Divergencias sin resolver y cuentas inabordables: a principios de la Segunda Guerra Mundial, la electrodinámica cuántica, refractaria al cálculo y conceptualmente confusa, parecía un embrollo maldito. EL REMEDIO DE FEYNMAN
En su charla de la Pocono Manor Inn, Feynman sostuvo que los diagramas ofrecían una nueva esperanza de superar los escollos de los cálculos electrodinámicos. Uno de los primeros ejemplos que presentó fue la colisión de dos electrones. Dibujó un sencillo diagrama en la pizarra, similar al incluido más tarde en su primer artículo sobre las nuevas técnicas diagramáticas (véase el recuadro «Partículas virtuales»). El diagrama representaba sucesos en dos dimensiones: el espacio en el eje horizontal y el tiempo en el vertical. El diagrama, explicó, proporcionaba una taquigrafía para una descripción matemática, unívocamente asociada a los elementos del grafo. Un electrón tenía una cierta probabilidad de moverse como partícula libre del punto x1 al x5. Feynman llamó a esta probabilidad K+(5,1). El otro electrón entrante se movía libremente —con probabilidad K+(6,2)— del punto x2 al x6. Este segundo electrón podía entonces emitir un fotón virtual en x6, que a su vez se movería —con probabilidad +(s562)— hasta x5, donde el primer electrón lo absorbería. (Aquí s56 representaba la distancia en el espacio y el tiempo que recorría el fotón.) La emisión o absorción de un fotón por un electrón llevaba asociado un factor e , donde e era la carga del electrón y un
14 T
a 63
Feynman demostró que los diagramas sirven para «contabilizar»: este conjunto de diagramas recoge las formas posibles en que dos electrones intercambian dos fotones. Cada diagrama corresponde a una integral única; todos tuvieron que ser evaluados y agregados como parte del cálculo de la probabilidad de que dos electrones colisionen.
1er Trimestre 2011
REPRODUCIDOS DE «SPACE-TIME APPROACH TO QUANTUM ELECTRODYNAMICS», DE RICHARD FEYNMAN, CON PERMISO DE LA AMERICAN PHYSICAL SOCIETY (esquema); CORTESÍA DE EMILIO SEGRÈ VISUAL ARCHIVES, INSTITUTO AMERICANO DE FÍSICA (fotografía)/AMERICAN SCIENTIST
En este proceso tan sencillo, los dos electrones intercambian un solo fotón. Las líneas rectas de los electrones tocan la línea ondulada del fotón en dos puntos, o «vértices». El término matemático asociado, por lo tanto, contiene dos factores de la carga del electrón e, uno por cada vértice. Cuando se eleva al cuadrado, esa expresión da una estimación bastante buena de la probabilidad de que dos electrones colisionen. Pero tanto Feynman como sus oyentes sabían que ahí solo empezaba el cálculo. En principio, ya lo hemos dicho, los dos electrones podían intercambiar cualquier número de fotones. Feynman, pues, empleó sus nuevos diagramas para describir las distintas posibilidades. Había nueve maneras diferen-
ADAPTADO DE J. JAUCH AND F. ROHRLICH, THE THEORY OF PHOTONS AND ELECTRONS, ADDISON-WESLEY, 1955/AMERICAN SCIENTIST
tes de que los electrones pudieran interTABLA 8-2 cambiar dos fotones, cada una de las cuaCorrespondencia entre diagramas y elementos de la matriz S en el espacio de momentos les contaba con cuatro vértices (y, por tanto, sus expresiones matemáticas asociadas contendrían e4 en vez de e2). Como Componente del diagrama Factor en el elemento de matriz S en el caso más simple (que implica solo un fotón), Feynman podía construir la función de propagación contribución matemática de cada uno de Línea interna de fotón del fotón estos diagramas introduciendo K + y + para cada línea de electrón y de fotón, y función de propagación Línea interna de electrón conectándolos en los vértices con los facdel electrón tores e . La diferencia principal con el caso de un solo fotón estribaba en que la mayor Vértice parte de las integrales de los diagramas de dos fotones, tal y como se había estado encontrando durante veinte años de cálculos sin diagramas, daban infinito en vez A mediados de los años cincuenta corrían tablas prácticas como esta; en ellas, los de un resultado finito. Feynman mostró a físicos jóvenes aprendieron a traducir cada pieza de sus diagramas de Feynman en la continuación que algunos de los infinitos expresión matemática correspondiente. molestos se podían eliminar mediante una «renormalización», una combinación Otros teóricos que habían asistido a la reunión de Pocono, de trucos de cálculo, algunos de su propia invención, algunos tomados de otros autores. El orden de las operaciones era entre ellos Robert Marshak, de Rochester, no salieron de su desimportante: Feynman partía de los diagramas en cuanto ayu- concierto al intentar aplicar las nuevas técnicas; tuvieron que da mnemotécnica para escribir las integrales pertinentes, y pedirle a Feynman que les hiciera las cuentas, ya que eran incasolo más tarde modificaba estas para quitarles, una a una, los paces de emprender los cálculos diagramáticos por sí mismos. Mientras tanto, durante el invierno de 1950, un estudiante de infinitos. Al organizar el cálculo con los diagramas, Feynman había doctorado y dos asociados postdoctorales se intercambiaron carresuelto un viejo quebradero de cabeza que llevaba años las- tas cada vez más detalladas; intentaban comprender por qué trando a los mejores físicos teóricos del mundo. Podríamos es- estaban obteniendo respuestas diferentes al usar los diagramas perar que sus colegas de la Pocono Manor Inn apreciasen, al para, se suponía, un mismo cálculo. Aún en 1953 —cinco años menos, lo que había logrado. Pero las cosas no fueron bien en después de que Feynman hubiera revelado su nueva técnica en la reunión. En primer lugar, las circunstancias se acumularon la reunión de Pocono—, Leonard Schiff, teórico destacado de en contra de Feynman: su presentación siguió a una marato- Stanford, escribía en una carta de recomendación de un estuniana conferencia —un día entero— de Julian Schwinger, el diante de doctorado que este entendía las técnicas diagramáticas «niño prodigio» de Harvard. Schwinger había llegado, sin re- y las aplicaba en su tesis. Como deja claro la carta de Schiff, no currir a diagramas, a un método diferente de eliminar los infi- se podía dar por descontado que los doctorandos entendieran nitos de los cálculos de la QED. Durante la exposición, los asis- los diagramas de Feynman o estuviesen acostumbrados a aplitentes no se movieron de sus asientos, salvo una breve interrup- carlos. Las nuevas técnicas no eran ni automáticas ni obvias para muchos físicos. Los diagramas no se difundieron solos. ción para comer. Pronunciada a última hora del día, la disertación de Feynman fue precipitada y dispersa. Nadie pareció capaz de seguir DYSON Y LOS POSTDOCTORALES APOSTÓLICOS lo que hacía. Sufrió interrupciones frecuentes de físicos del fus- Su uso se extendió gracias, sobre todo, a los esfuerzos de Freete de Niels Bohr, Paul Dirac y Edward Teller, que insistían en man Dyson, un joven cercano a Feynman. Dyson estudió matequerer saber cómo esos garabatos encajaban en los principios máticas en Cambridge, antes de trasladarse a Estados Unidos de la física cuántica. Otros, exasperados, preguntaban más en para seguir cursos de doctorado de física teórica. Llegó a Corgeneral por las reglas que regían el uso de los diagramas. Según nell en el otoño de 1947 para estudiar con Hans Bethe. En el todos los testimonios posteriores, Feynman abandonó la reu- transcurso de aquel año también empezó a encontrarse con Fenión decepcionado, deprimido incluso. ynman, justo cuando este trabajaba en su nuevo enfoque de la Se ha recordado a menudo la frustración de Feynman por lo QED. Dyson y Feynman hablaron a menudo durante la primaque le ocurrió en Pocono. Sin embargo, al contarlo se ha pasa- vera de 1948 de los diagramas de Feynman y de cómo podían do siempre por alto que la confusión perduró hasta transcurrido usarse, conversaciones que prosiguieron con mayor intensidad mucho tiempo de aquella presentación tan poco prometedora. cuando los dos hicieron un viaje en coche por el país aquel veA los propios amigos y colegas más cercanos a Feynman les cos- rano, unos meses después de la exposición de Feynman en Potaba entender de dónde salían los diagramas o cómo se debían cono Manor. usar. Ni siquiera Hans Bethe, experto en QED reconocido en Más avanzado el estío, Dyson asistió a la escuela de veratodo el mundo y compañero, ya consagrado, de Feynman en no de física teórica de la Universidad de Michigan, donde desCornell, y Ted Welton, que hizo la carrera con Feynman y por tacaron las detalladas conferencias de Julian Schwinger acerentonces también especialista en QED, entendían lo que Feyn- ca de su propia aproximación no diagramática a la renormaman hacía; le pidieron repetidas veces que les ayudara a ejerci- lización. La escuela de verano ofreció a Dyson la oportunidad tarse en el cálculo. de hablar de manera informal y extensa con Schwinger tal y
InvestigacionyCiencia.es
U
o
o 15
como ya había hecho con Feynman. Así, hacia septiembre de 1948, Dyson, y solo Dyson, había pasado un tiempo intenso y concentrado hablando con ambos, Feynman y Schwinger, sobre sus respectivas nuevas técnicas. Al final del verano, marchó al Instituto de Estudios Avanzados de Princeton, en Nueva Jersey. Poco después de su llegada a Princeton, envió un artículo a Physical Review que comparaba los métodos de Feynman y Schwinger. (También analizaba los métodos del teórico japonés Sin-Itiro Tomonaga, quien había trabajado sobre el problema durante y después de la guerra; poco después de la guerra, Schwinger llegó, por su lado, a un enfoque muy similar al de Tomonaga.) Más que compararlos, Dyson demostró la equivalencia matemática de los tres métodos, y ello antes de que Feynman hubiera escrito un solo artículo sobre sus nuevos diagramas. El temprano artículo de Dyson y un extenso artículo que lo continuaba, remitido aquel invierno para su publicación, aparecieron meses antes que los propios trabajos de Feynman. Incluso años después de que los artículos, ya famosos, de Feynman saliesen impresos, el par de artículos de Dyson se citaba más a menudo que los de Feynman. En estos primeros trabajos, Dyson dedujo reglas para el empleo de los diagramas, precisamente lo que los frustrados oyentes de Feynman en la reunión de Pocono habían encontrado a faltar. Los artículos de Dyson ofrecieron una «guía de uso» que incluía las instrucciones, paso a paso, de cómo debían dibujarse los diagramas y traducirse en sus expresiones matemáticas asociadas. Además de sistematizar los diagramas de Feynman, Dyson dedujo la forma y el uso de los diagramas a partir de principios básicos, asunto que Feynman no había abordado en absoluto. Más allá de todas estas explicaciones y deducciones, Dyson demostró cómo, diagramas en mano, se podían eliminar sistemáticamente los preocupantes infinitos de cualquier cálculo, por complicado que fuera. Hasta entonces, Tomonaga, Schwinger y Feynman habían trabajado solo con la primera ronda de términos de corrección perturbativos, y solo en el contexto de unos pocos problemas específicos. A partir de la topología de los diagramas, Dyson generalizó los ejemplos analizados y demostró que los problemas de QED se podían renormalizar.
16 T
a 63
Mayor importancia que sus artículos tuvo el que Dyson convirtiera el Instituto de Estudios Avanzados en una fábrica de diagramas de Feynman. Para entender ese proceso, resulta obligado retroceder y considerar los cambios en la educación postdoctoral de los físicos durante este período. Antes de la Segunda Guerra Mundial, solo una pequeña parte de los físicos que acababan su doctorado en Estados Unidos seguían una educación postdoctoral; por entonces, era todavía corriente empezar a trabajar en la industria o en la universidad nada más terminar el doctorado. En el caso de los físicos teóricos —antes de la guerra, todavía una pequeña minoría entre los físicos estadounidenses—, los que continuaban su educación postdoctoral viajaban, por lo general, a reputados centros europeos. Solo era en Cambridge, Copenhague, Gotinga o Zúrich donde estos jóvenes teóricos norteamericanos «aprendían la música», según la frase famosa de I. I. Rabi, y no solo «il libretto» de la investigación en física. Al volver, muchos de estos físicos —entre ellos Edwin Kemble, John Van Vleck, John Slater y J. Robert Oppenheimer, así como el propio Rabi— se dedicaron a organizar en su país los fundamentos de la educación postdoctoral de los teóricos jóvenes. Poco después de la guerra, el Instituto de Estudios Avanzados, bajo la dirección de Oppenheimer, se convirtió en uno de los centros clave para que los teóricos jóvenes completasen el trabajo postdoctoral. Con la fama mundial que tenía por haber dirigido el laboratorio de guerra de Los Alamos, Oppenheimer se había convertido en una persona muy solicitada. Dejó su plaza de Berkeley en 1947 para dirigir el Instituto de Princeton, en parte porque así podría atender desde más cerca sus nuevos deberes de consultor en Washington. Puso como condición para aceptar el puesto que se le permitiera aumentar el número de miembros jóvenes, temporales, de la plantilla de física; es decir, quería convertir el Instituto en un centro de educación postdoctoral de los físicos teóricos. No tardó el centro en constituirse en el lugar deseado por los teóricos jóvenes para cumplir dos años de estancia postdoctoral. Este «hotel intelectual», así lo llamó Oppenheimer, de investigadores postdoctorales, sería crucial para la difusión de los diagramas de Feynman. Cuando Dyson llegó en el otoño de 1948 —justo un año después de que se nombrara a Oppenheimer director y empezase a poner en práctica su proyecto de que en el instituto se impartieran estudios postdoctorales—, encontró allí a otros once teóricos en ciernes. Uno de los nuevos edificios del Instituto, el que, se suponía, contendría los despachos de esos visitantes, no se acabó a tiempo, y el equipo de postdoctorales hubo de pasar la mayor parte de aquel
1er Trimestre 2011
CORTESÍA DEL LABORATORIO NACIONAL LAWRENCE BERKELEY/AMERICAN SCIENTIST
Después de la Segunda Guerra Mundial, la escala del equipamiento utilizado por los físicos de altas energías en Estados Unidos creció enormemente. Aquí, E. O. Lawrence y su grupo posan con el recién renovado sincrotrón de 4,67 metros del Laboratorio de Radiación de Berkeley, en 1946. Tales aceleradores de partículas atrajeron grandes equipos de físicos experimentales, que enseguida se encontraron con todo un «zoo» de nuevas partículas. Estudiar su comportamiento se convirtió en tarea rutinaria.
REIMPRESO DE MARSHAK 1952/AMERICAN SCIENTIST
semestre en mesas contiguas de un solo despacho. Tanta cercanía alentó la colaboración. Dyson destacó muy pronto; enseñó a sus compañeros la técnica de los diagramas y coordinó una serie de cálculos que se efectuaron en colaboración por medio de los diagramas. Entre esos cálculos sobresalió el que publicaron Robert Karplus y Norman Kroll. Una vez los hubo Dyson iniciado en el método, emprendieron las correcciones en e4 del momento magnético del electrón; es decir, calcularon la intensidad con que un campo electromagnético externo afectaba a un electrón. Se trataba de un cálculo monumental que abarcaba una larga lista de complicados diagramas de Feynman. Al construir cada pareja de diagramas e integrales como Dyson les había enseñado, demostraron que un electrón debería tener un momento magnético de 1,001147 en vez de 1 (en las unidades apropiadas), una respuesta con una exactitud de seis cifras que concordaba increíblemente bien con las últimas mediciones experimentales. Tras «muchas y provechosas discusiones con F. J. Dyson», Karplus y Kroll mostraron así que, gracias a los diagramas de Feynman se llevaban a cabo cálculos de los que nadie había soñado que fueran factibles. Los postdoctorales de Princeton, formados por Dyson en los cálculos diagramáticos, pronto dejaron el Instituto para ocupar puestos docentes. Más de las cuatro quintas partes de los artículos que usaron diagramas de Feynman en la principal revista norteamericana de física, Physical Review, entre 1949 y 1954 llevaban la firma de estos postdoctorales, de doctorandos o de otros colegas, a quienes ellos, ya en sus nuevas plazas, habían instruido. La gran mayoría de los 114 autores que utilizaron los diagramas en Physical Review durante este período habían aprendido de Dyson las técnicas, o de alguien a quien Dyson había enseñado. (Los demás autores, excepto dos, habían tenido alguna relación directa con Feynman.) El capítulo de reconocimientos en las disertaciones de los doctorandos de departamentos de Berkeley, Chicago, ciudad de Iowa, Bloomington, Madison, Urbana, Rochester e Ithaca confirman el papel de los postdoctorales del Instituto en la propagación de las nuevas técnicas y en la enseñanza de su aplicación a sus propios alumnos. Los diagramas de Feynman se extendieron así por todo EE.UU. gracias a la cascada de postdoctorales que salían del Instituto de Estudios Avanzados. Años más tarde, Schwinger diría con sarcasmo que los diagramas de Feynman habían «llevado el cálculo a las masas». Los diagramas, recalcaba, eran un asunto, como mucho, de «pedagogía, no de física». Ciertamente eran un asunto de pedagogía. Si se considera quiénes eran los autores de estos artículos diagramáticos, queda clara la misión pedagógica de los postdoctorales: más del 80 por ciento de tales autores estaba todavía en pleno período de formación cuando aparecieron los diagramas de Feynman. Los demás comenzaron a usar los diagramas mientras eran instructores jóvenes o profesores ayudantes, menos de siete años después de haberse doctorado. Los físicos de más edad no se «reciclaron». Pese a ello, los diagramas no llegaron a todas partes. Individuos, e incluso departamentos enteros, que no entraron en contacto con los postdoctorales recién dispersados prescindían de los diagramas años después de que se hubiesen impreso las instrucciones de empleo. Uno de los primeros conversos de Dyson en el Instituto, Fritz Rohrlich (autor de un manual pionero sobre las nuevas técnicas diagramáticas), tuvo que aconsejar a un estudiante de doctorado de la Universidad de Pennsylvania que escogiese un tema de disertación diferente o que cambiara de cen-
InvestigacionyCiencia.es
tro; sin ningún representante de la red de Princeton en la ciudad, el alumno no llegaría a dominar los métodos diagramáticos. Como los físicos comprendieron, se requería mucho más que artículos de investigación publicados o textos pedagógicos para difundir los diagramas. La dirección personal en la formación y el acierto en los nombramientos de los postdoctorales constituían la clave. Mecanismos de transferencia muy similares extendieron los diagramas a jóvenes teóricos de Gran Bretaña y Japón; mientras, el endurecimiento de la guerra fría ahogaba la difusión de los diagramas entre los físicos de la Unión Soviética. Solo con el retorno a las conferencias mixtas entre norteamericanos y soviéticos a mediados de los años cincuenta, bajo la iniciativa de «Átomos para la Paz», empezaron los físicos soviéticos a utilizar los diagramas de Feynman con la misma soltura que los demás países. LOS DIAGRAMAS DOMINAN
Comentarios desdeñosos de Schwinger aparte, resultaba innegable la eficacia de los diagramas de Feynman en los cálculos perturbativos de QED. Habida cuenta de la naturaleza laberíntica de los términos correctivos en estos cálculos y de la rapidez con que podían resolverse gracias a los diagramas, cabría esperar que se hubieran difundido y aplicado ampliamente con ese fin. Pero no fue así. Solo un grupo restringido publicó cálculos perturbativos de orden elevado semejantes a los de Karplus y Kroll, donde los diagramas llevasen la cuenta de las perturbaciones decrecientes de QED. Menos del 20 por ciento de los artículos diagramáticos aparecidos en Physical Review entre 1949 y 1954 emplearon así los diagramas. En cambio, los diagramas se usaron cada vez con mayor frecuencia para estudiar no las interacciones electrodinámicas entre electrones y fotones, sino partículas e interacciones nucleares. En los nuevos aceleradores de partículas estaban apareciendo docenas de nuevas partículas nucleares, como los mesones, de los que ahora se sabe que son partículas compuestas, estados ligados de quarks y sus homólogos de antimateria. Analizar el comportamiento de todas estas nuevas partículas se convirtió en un tema de sumo interés, tanto experimental como teórico. Pero los diagramas no tenían un lugar obvio en los nuevos estudios. Feynman y Dyson habían concebido sus técnicas diagramáticas para la electrodinámica; ahora bien, las partículas nucleares se hallan sujetas a la interacción fuerte. En razón de su nimiedad, se podía explotar la carga del electrón en los
(1)
(2)
(3)
Transición «de expulsión»
Transición «fotoeléctrica»
Transición «catastrófica»
Enfrentados a la afluencia de nuevas partículas e interacciones, algunos físicos teóricos comenzaron a utilizar los diagramas de Feynman para representar procesos físicos. Confiaban en que los diagramas de Feynman les ayudarían a clasificar las nuevas reacciones nucleares, aun cuando ya no se pudieran realizar cálculos perturbativos.
U
o
o 17
TÉ CNICAS PIC TÓRICAS
Historia del arte A medida que se extendían los nuevos diagramas, mentores y alumnos los fueron dibujando con diversos propósitos. Se reconocen «semejanzas de familia» en estos pares. En cada caso, el primer diagrama (izquierda o arriba) viene de un joven instructor, y el segundo, de alguien a quien había formado.
Oxford/Cambridge «Overlapping divergences and the S-matrix». A. Salam en Physical Review, vol. 82, págs. 217-227, 1951. «Renormalization theory of the interactions of nucleons, mesons and photons». J. C. Ward en Physical Review, vol. 84, págs. 897-901, 1951.
«Natural line shape». F. E. Low en Physical Review, vol. 88, págs. 53-57, 1952.
Urbana
«Renormalization of mesons theory with a fixed extended source». G. F. Chew en Physical Review, vol. 94, págs. 1748-1754, 1954.
cálculos perturbativos de la electrodinámica cuántica; en cambio, varios experimentos indicaron que la intensidad de la fuerza de acoplamiento entre las partículas nucleares (g2) era mucho mayor, entre 7 y 57, no 1/137. Si se abordaba la colisión entre las partículas nucleares del mismo modo que se trataba la colisión electrón-fotón, con una larga serie de diagramas de Feynman de complejidad progresiva, cada uno de los cuales contuviese más y más vértices, los diagramas de orden más alto incluirían potencias superiores del número g2, mayor que la unidad. A diferencia de la situación en QED, estos complicados diagramas, con muchos vértices y, por lo tanto, con muchos factores g2, superarían con creces las contribuciones de orden más bajo. De ahí que Feynman le advirtiese a Enrico Fermi a finales de 1951 de que no se creyese ningún cálculo de la teoría de mesones que usara diagramas de Feynman. A pesar de la admonición de Feynman, numerosos teóricos jóvenes se mantuvieron ocupados (y todavía es así hoy en día) con los cálculos diagramáticos de las fuerzas nucleares. Más de la mitad de los artículos diagramáticos de Physical Review entre 1949 y 1954 aplicaban los diagramas a temas nucleares; entre ellos, los cuatro primeros artículos llenos de diagramas que se publicaron tras los escritos por Feynman y Dyson. En vez de descartar los diagramas cuando no eran aplicables los métodos perturbativos, los teóricos se aferraron a sus líneas escuetas e idearon nuevos usos e interpretaciones. Algunos utilizaban los diagramas como representaciones físicas de las colisiones que se producían en los nuevos aceleradores. Rodeados en un «zoo» de partículas nucleares que surgían en esas máquinas, los teóricos recurrían a los diagramas para llevar un estadillo de las partículas y de los tipos de interacciones en que participaban, un tipo de contabilidad más próxima a la clasificación botánica que al cálculo perturbativo. Otros los usaron como un modo rápido de discriminar entre efectos físicos contrapuestos: si un diagrama contenía dos vértices de fuerza nuclear (g2), pero solo un vértice de fuerza electromagnética (e), podía esperarse que el correspondiente proceso físico contribuyera con un peso mayor que un diagrama
18 T
a 63
«Bounds states in quantum field theory». M. Gell-Mann y F. E. Low en Physical Review, vol. 84, págs. 350-354, 1951.
Chicago
«Three-nucleon interactions in Yukawa theory». G. Wentzel en Physical Review, vol. 89, págs. 684-588, 1953.
con dos factores de e y solo una g, aun cuando ninguno de los diagramas pudiera recibir una evaluación formal. A principios de los años sesenta, el grupo de Geoffrey Chew en Berkeley llevó los diagramas aún más lejos. Se afanaron por sacarlos del marco teórico apuntalado por Dyson; perseguían fundar en ellos una nueva teoría de las partículas nucleares que remplazase al propio marco del que se los había deducido. Durante las décadas de 1950 y 1960, no dejó de estirarse el cordón umbilical que unía los diagramas con las elegantes instrucciones, sometidas a reglas precisas, que Dyson había dictado para su empleo. Desde el primer momento, se jugó con los diagramas —añadiendo un tipo nuevo de línea aquí, abandonando una anterior convención del uso de las flechas allá, rotulando de distintas maneras— para destacar los elementos que en cada momento se juzgasen de mayor importancia. Ese pastiche visual, sin embargo, no se compuso al azar. Fueron surgiendo escuelas locales a medida que mentores y pupilos adecuaban los diagramas para mejor satisfacer sus intereses de cálculo. Los diagramas dibujados por los doctorandos de Cornell se fueron pareciendo cada vez más entre sí y menos a los dibujados por los estudiantes de Columbia, Rochester o Chicago. La pedagogía confirió una impronta diferenciadora a los diagramas en la misma medida en que fomentó su circulación. Los teóricos se sentían obligados a ahondar en su adaptación de los diagramas de Feynman al estudio de las partículas de interacción fuerte, aun cuando los cálculos perturbativos se habían demostrado imposibles. Un físico comparó la voluntad de usar diagramas de Feynman en física nuclear, a pesar de la constante de acoplamiento, «al tipo de craniometría que estuvo de moda en el siglo diecinueve»; ambas cosas «venían a tener el mismo sentido». Solo se tuvo un patrón coherente de reglas para los cálculos perturbativos de fuerzas nucleares en 1973, cuando David Politzer, David Gross y Frank Wilczek descubrieron la libertad asintótica en la cromodinámica cuántica (QCD), teoría de la fuerza nuclear fuerte. (El trío recibió el premio Nobel de 2004 por ello.) Pero en el cuarto de siglo transcurrido entre
1er Trimestre 2011
«Fourth-order corrections in quantum electrodynamics and the magnetic moment of the electron». R. Karplus y N. M. Kroll en Physical Review vol. 77, págs. 536-549, 1950.
Cornell
«Fourth-order radiative corrections to atomic energy levels». J. Weneser, R. Bersohn y N. M. Kroll en Physical Review, vol. 91, págs. 1257-1262, 1953.
«Meson physics». R. E. Marshak, McGraw-Hill, 1952.
«The theory of positrons». R. Feynman en Physical Review, vol. 76, págs. 749-759, 1949. «The fourth-order contribution to the self-energy of the electron». R. M. Frank en Physical Review, vol. 83, págs. 1189-1193, 1951.
Columbia
la aparición de los diagramas de Feynman y ese descubrimiento, los físicos, sin ninguna teoría que los dirigiese, garabatearon diagramas de Feynman sin cesar. Otro premio nóbel, Philip Anderson, se preguntaba recientemente si Feynman «no les habría lavado el cerebro» a los físicos. No amainó el garabateo ni siquiera cuando el marco teórico de la física sufrió un cambio radical. Para generaciones de teóricos educados desde el principio en esa herramienta favorita, los diagramas de Feynman eran lo primero cuando se trataba de abordar los cálculos. La historia de la difusión de los diagramas de Feynman revela el esfuerzo necesario para crear instrumentos de investigación y preparar a quienes los pondrían en obra. La gran mayoría de los físicos que se valieron de los diagramas durante la década posterior a su aparición lo hizo solo después de haber trabajado estrechamente con algún miembro de la red diagramática. Los postdoctorales que pasaban por el Instituto de Estudios Avanzados participaban allí en intensas sesiones de estudio y en cálculos realizados en colaboración. Después ocuparon plazas por Estados Unidos (y en otras partes) e instruyeron a sus propios alumnos en el uso de los diagramas. En una proporción aplastante, los físicos que permanecieron fuera de esta red no adoptaron los diagramas en sus investigaciones. El contacto personal y la formación individual siguieron siendo el medio predominante de circulación de los diagramas, incluso años después de que se hubieran impreso instrucciones explícitas para su empleo. No fue la circulación de textos, sino la enseñanza directa la que proporcionó el método más eficaz de inculcar la destreza necesaria para sacar provecho de los nuevos diagramas. Las tareas que los postdoctorales asignaban a sus alumnos a menudo se limitaban a pedirles que dibujaran los diagramas de Feynman apropiados para un problema dado, sin siquiera traducirlos a expresiones matemáticas. Esos alumnos aprendieron pronto que los cálculos empezaban por los diagramas. Surgieron tradiciones locales. Los físicos jóvenes de Cornell, Columbia, Rochester, Berkeley y otras partes practicaron el dibujo y la interpretación de los diagramas de modos y con fines distintos. Estas apropiaciones diagramáticas guardaron
InvestigacionyCiencia.es
Rochester
«Bremsstrahlung in high energy nucleon-nucleon collisions». A. Simon en Physical Review, vol. 79, págs. 573-576, 1950.
cada vez menor semejanza con el proyecto original de Dyson. Su derivación a partir de principios básicos y reglas de traducción guiaron a los alumnos de Norman Kroll en Columbia, por ejemplo, pero se la consideró menos importante entre los estudiantes de Rochester; el grupo de Geoffrey Chew en Berkeley la ignoró. Los mentores eligieron los problemas en que se debía trabajar y los conocimientos que habían de adquirir sus alumnos. Como ocurre con cualquier instrumento, solo entenderemos la difusión de los diagramas de Feynman entre los físicos si tomamos en consideración los contextos locales donde se utilizaron. Sigue siendo imposible, por lo tanto, separar las prácticas de investigación de los medios con que se formó a los investigadores. En una generación, los diagramas de Feynman se convirtieron en la herramienta para calcular lo que fuese, de la electrodinámica y la física nuclear y de partículas a la física del estado sólido e incluso a disciplinas más alejadas de la aplicación original. Se logró con mucho trabajo pedagógico, de postdoctoral a postdoctoral, de mentor a pupilo. Los diagramas de Feynman no están en la naturaleza; los físicos teóricos no nacen, se hacen. Durante los decenios centrales del siglo , un mismo proceso pedagógico moldeó a aquellos y a estos. © American Scientist Magazine PA R A S A B E R M Á S
The radiation theories of Tomonaga, Schwinger, and Feynman. F. J. Dyson en Physical Review, vol. 75, págs. 486-502, 1949. The S matrix in quantum electrodynamics. F. J. Dyson en Physical Review, vol. 75, págs. 17361755, 1949. The theory of positrons. R. P. Feynman en Physical Review, vol. 76, págs. 749-759, 1949. Space-time approach to quantum electrodynamics. R. P. Feynman en Physical Review, vol. 76, págs. 769-789, 1949. Fourth-order corrections in quantum electrodynamics and the magnetic moment of the electron. R. Karplus y N. M. Kroll en Physical Review, vol. 77, págs. 536-549, 1950. QED: The strange theory of light and matter. R. P. Feynman. Princeton University Press. Princeton, N.J., 1985. QED and the men who made it: Dyson, Feynman, Schwinger, and Tomonaga. S. S. Schweber. Princeton University Press. Princeton, 1994.
U
o
o 19
Artículo publicado en Investigación y Ciencia, n.o 379
PA R T Í C U L A S Y C U E R DA S
Revolución en la física de partículas Todo cuanto el nuevo Gran Colisionador de Hadrones nos haga ver adentrará la física en nuevos territorios Chris Quigg
C
ċaĄúo ĉû Ăûĉ Ćÿúû a Ăoĉ üīĉÿùoĉ ćċû ĀċĉĊÿüÿćċûĄ con una palabra el porqué del Gran Colisionador de Hadrones (LHC) suelen responder: «Higgs». La búsqueda de la partícula de Higgs constituye un paso crucial, pero es solo el primer paso. Bajo ella subyacen fenómenos que podrían aclarar por qué la fuerza de atracción gravitatoria es muchísimo más débil que las demás fuerzas de la naturaleza y que quizá revelen en qué consiste esa desconocida materia oscura que llena el universo. Las cuestiones en juego parecen estar todas ellas vinculadas entre sí y anudadas al problema que en un principio obligó a predecir la existencia de la partícula de Higgs. El LHC nos ayudará a refinar estas cuestiones y nos pondrá en el camino que conduzca a su solución. LA MATERIA QUE TENEMOS AL ALCANCE
El modelo estándar de la física de partículas (para señalar que se trata de una teoría en proceso de elaboración) puede explicar mucho del mundo conocido. Los elementos más importantes del modelo estándar fueron encajando en su lugar a lo lar-
go de unos veinte años, desde los primeros años setenta, tiempos embriagadores, en los que una oleada de hitos experimentales trabó una productiva conversación con las ideas teóricas que se estaban gestando. Muchos especialistas en física de partículas consideran que los 15 últimos años han sido de consolidación, en contraste con los decenios de fermento que les precedieron. Mas, a pesar de que el modelo estándar ha ido logrando cada vez más completa confirmación experimental, también es cada vez más larga la lista de fenómenos que escapan a sus previsiones. Nuevas ideas de carácter teórico han ampliado el aspecto de una cosmología posible, más amplia y comprensiva. Tomados en conjunto, los continuos avances, tanto experimentales como teóricos, son augurio de un decenio de viva actividad. Tal vez, al volver la mirada hacia atrás, nos percatemos de que durante todo ese tiempo se ha estado gestando una revolución. Según la concepción vigente, la materia consta de dos grandes categorías de partículas, quarks y leptones, en conjunción con tres de las cuatro fuerzas fundamentales conocidas, a saber, el electromagnetismo y las interacciones fuerte y débil. La
EN SÍNTESIS
Al internarnos en territorios vírgenes mediante el Gran Colisionador de Hadrones (LHC) se lograrán descubrimientos nuevos y apasionantes.
20 Tûăaĉ 63
El modelo estándar de la física de partículas requiere el bosón de Higgs o un sustituto que haga sus funciones a las energías que va a sondear el LHC.
El Higgs, a su vez, plantea por sí mismo profundas cuestiones, cuya respuesta se debería hallar en ese mismo orden de energías.
Los fenómenos anteriores giran en torno a la noción de simetría, pero esta no es siempre manifiesta en el modelo. El problema es comprender por qué.
1er Trimestre 2011
KENN BROWN (hombre de Vitruvio)
gravedad, por el momento, ha sido dejada aparte. Los quarks, componentes de protones y neutrones, experimentan cada una de estas tres fuerzas. Los leptones, cuyo representante más conocido es el electrón, son inmunes a la interacción fuerte. Lo que diferencia a estas dos categorías es el «color», una propiedad que guarda una lejana semejanza con la carga eléctrica. (Es un nombre metafórico, sin nada que ver con los colores del espectro.) Los quarks poseen color; los leptones, no. El principio director del modelo estándar dicta que sus ecuaciones son simétricas. De igual modo que una esfera ofrece el mismo aspecto desde cualquier dirección, así las ecuaciones del modelo subsisten sin variación al cambiar la perspectiva desde la que son definidas. Permanecen invariables, además, cuando esta perspectiva se desplaza en distinta magnitud a diferentes puntos del espacio y el tiempo. En los cuerpos geométricos, la exigencia de simetría les impone a sus posibles formas unas condiciones muy estrictas. Una esfera abollada no ofrece idéntico aspecto desde todas direcciones. Análogamente, el requisito de simetría le impone a las ecuaciones exigencias no menos estrictas. Dichas simetrías engen-
InvestigacionyCiencia.es
Al estudiar el mundo con una resolución mil millones de veces más fina que la escala atómica, se busca lograr un conocimiento más profundo del mundo cotidiano y de la evolución del universo.
dran fuerzas transportadas por partículas especiales, los bosones [véase «Teorías gauge de las fuerzas entre partículas elementales», por Gerard ’t Hooft; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, agosto de 1980, y «Partículas y fuerzas elementales», por Chris Quigg; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, junio de 1985]. El modelo estándar torna del revés el aforismo arquitectónico de Louis Sullivan: en lugar de «la forma obedece a la función», aquí la función obedece a la forma. Es decir, la forma de la teoría, expresada en la simetría de las ecuaciones que la definen, dicta la función —las interacciones entre partículas— que la teoría describe. Por ejemplo, la fuerza nuclear fuerte se deduce del requisito de que las ecuaciones que describen a los quarks hayan de ser las mismas, con independencia de cómo se opte por definir los colores de los quarks (e incluso si este con-
UĄÿČûĈĉo ùċħĄĊÿùo 21
E L M O D E L O E S TÁ N D A R
¿Qué es en realidad la materia?
Un examen profundo de un fragmento de materia nos revela que está constituida por unos pocos tipos de partículas elementales, tomados de una «carta» que cuenta con una docena de «sabores». En el modelo estándar, las partículas son puntos geométricos; los «tamaños» presentados aquí aluden a sus masas.
SUSTANCIA
ÁTOMO
QUARKS
BOSONES
u
ARRIBA
Carga eléctrica: + /3 Masa: 2 MeV Constituyente de materia ordinaria. El protón consta de dos quark arriba y un quark abajo. 2
ABAJO
CIMA
Carga eléctrica: + 2/3 Masa: 1,25 GeV Pariente inestable del anterior. Es un constituyente de la partícula J/, que contribuyó al desarrollo del modelo estándar.
Carga eléctrica: + /3 Masa: 171 GeV La partícula conocida de mayor masa, comparable a la de un átomo de osmio. Vida muy efímera.
EXTRAÑO
FONDO
c
d
Carga eléctrica: – /3 Masa: 5 MeV Constituyente de materia ordinaria. Dos quarks abajo y un quark arriba componen un neutrón. 1
t
ENCANTO
s
Carga eléctrica: – /3 Masa: 95 MeV Pariente inestable y de mayor masa del quark abajo. Constituyente de una partícula muy estudiada, el kaón. 1
2
b
Carga eléctrica: – 1/3 Masa: 4,2 GeV Copia inestable del quark abajo, pero de masa mucho mayor. Constituyente de una partícula muy estudiada, el mesón B.
A nivel cuántico, cada fuerza de la naturaleza es transmitida por una partícula o conjunto de partículas. Carga eléctrica: 0 Masa: 0 Es el cuanto de luz, portador del electromagnetismo. Actúa sobre partículas eléctricamente cagadas. Actúa a distancias ilimitadas.
BOSÓN Z
Estas partículas son inmunes a la interacción fuerte y sí son observables como individuos aislados. Cada uno de los neutrinos que se muestran es en realidad una mezcla de especies de neutrinos, cuya masa no excede, en ningún caso, de unos pocos eV.
NEUTRINO ELECTRÓNICO
e
Carga eléctrica: 0 Es inmune a la fuerza electromagnética y a la fuerte. Apenas interactúa. Es esencial para la radiactividad.
ELECTRÓN
e
Carga eléctrica: –1 Masa: 0,511 MeV La más ligera de las partículas con carga eléctrica. Citado sin cesar como portador de carga en la corriente eléctrica y por ser la partícula que orbita en torno a los núcleos atómicos.
22 Tûăaĉ 63
NEUTRINO MUÓNICO
Carga eléctrica: 0 Aparece en reacciones débiles en las que interviene el muon.
MUON
Carga eléctrica: –1 Masa: 106 MeV Una versión del electrón con más masa. Su vida media es de 2,2 microsegundos. Descubierto en las lluvias de rayos cósmicos.
NEUTRINO TAUÓNICO
Carga eléctrica: 0 Aparece en reacciones débiles en las que interviene el leptón tau.
TAU
Carga eléctrica: –1 Masa: 1,78 GeV Otra versión inestable y con una masa muchísimo mayor que la del electrón. Su vida es de 0,3 picosegundos.
Z
Carga eléctrica: 0 Masa: 91 GeV Mediador de las interacciones débiles que no cambian la identidad de las partículas. Su alcance es de unos 10–18 metros.
BOSONES W+/W– LEPTONES
FOTÓN
W
Carga eléctrica: +1 o –1 Masa: 80,4 GeV Mediadores de las interacciones débiles que cambian el «sabor» y la carga eléctrica de las partículas. Su alcance es de unos 10–18 metros.
g
GLUONES
Carga eléctrica: 0 Masa: 0 Ocho especies de gluones portan la interacción fuerte y actúan sobre los quarks y los demás gluones. No experimentan ni la interacción electromagnética ni la débil.
HIGGS
(No observado aún)
H
Carga eléctrica: 0 Masa: no mayor, se cree, de 1 TeV; probablemente, entre 114 y 192 GeV Se cree que provee de masa a los bosones W y Z, a los quarks y a los leptones.
1er Trimestre 2011
SLIM FILMS
Estas partículas integran los protones, los neutrones y un auténtico zoo de partículas de menor renombre. Nunca han sido observados sueltos.
NÚCLEO
venio es establecido de forma independiente en cada punto del espacio y del tiempo). Las portadoras de la fuerza fuerte son ocho partículas denominadas gluones (de glue, pegamento). Las otras dos fuerzas —la electromagnética y la nuclear débil— pertenecen al epígrafe «fuerzas electrodébiles» y se fundan en una simetría diferente. Las fuerzas electrodébiles presentan como portadoras a un cuarteto de partículas: el fotón, el bosón Z, el bosón W+ y el bosón W–.
PROTÓN
Quark
ROMPER EL ESPEJO
Así actúan las fuerzas Una interacción entre varias partículas en colisión puede cambiar su energía, su momento cinético o su tipo. Una interacción puede incluso ser la causa de que una partícula aislada se desintegre espontáneamente.
Interacción fuerte
La interacción fuerte actúa sobre los quarks y los gluones, los liga entre sí y forma protones, neutrones y otras partículas. De forma indirecta, también liga a los protones y neutrones, formando con ellos núcleos atómicos.
Interacción electromagnética La interacción electromagnética actúa sobre partículas cargadas sin modificar su identidad. Es responsable de la repulsión de las cargas del mismo signo.
Trayectoria original
Partícula cargada Trayectoria desviada
Interacción débil
La interacción débil opera sobre quarks y leptones. Su efecto mejor conocido es la transmutación de un quark abajo en un quark arriba, lo que provoca, a su vez, que un neutrón se convierta en un protón, un electrón y un antineutrino.
Interacción de Higgs
Se cree que el campo de Higgs (fondo gris) llena el espacio, como un fluido, «estorbando» a los bosones W y Z, y limitando con ello el alcance de las interacciones débiles. El bosón de Higgs interactúa también con los quarks y los leptones, dotándolos de masa.
e
d
w d
u
SLIM FILMS
Neutrón
u
u
w
d
Protón
InvestigacionyCiencia.es
Campo de Higgs
z
La teoría de las fuerzas electrodébiles fue formulada por Sheldon Glashow, Steven Weinberg y Abdus Salam, galardonados con el premio Nobel de física de 1979. La fuerza débil, que interviene en la desintegración radiactiva beta, actúa sobre quarks y leptones. Cada una de estas partículas se presenta en dos variantes, espejo cada una de la otra: la variedad levógira y la variedad dextrógira. La fuerza de la desintegración beta actúa solo sobre la variante levógira, hecho desconcertante y todavía no explicado 50 años después de su descubrimiento. La simetría de familia que comparten las partículas levógiras contribuye a la definición de la teoría electrodébil. La teoría, en sus primeros estadios, presentaba dos deficiencias fundamentales. Ante todo, pronosticaba la existencia de cuatro partículas portadoras de fuerzas de largo alcance, denominadas bosones de gauge, pero la naturaleza solo nos ofrece una, el fotón. Las otras tres son de muy corto alcance, inferior a 10–17 metros, es decir, menos del 1 por ciento del radio del protón. Según el principio de indeterminación de Heisenberg, de tan cortísimo alcance se sigue que las partículas de fuerza habrían de tener una masa que rondase los 10 GeV (10 gigaelectronvoltios, o sea, 10.000 millones de eV). La segunda limitación concierne a la simetría de la familia, que no permite que posean masa ni los quarks ni los leptones; pero la poseen. Una forma de salir de tan insatisfactoria situación consiste en admitir que una simetría en las leyes de la naturaleza no tiene por qué verse reflejada en el resultado de tales leyes. Se dice entonces que «se ha roto la simetría». El aparato teórico necesario fue elaborado hace unos 40 años por los físicos Peter Higgs, Robert Brout, François Englert y otros. La inspiración llegó desde un fenómeno sin relación aparente: la superconductividad, en la cual ciertos materiales ofrecen, a temperaturas muy bajas, resistencia cero al paso de la corriente eléctrica. Las leyes propias del electromagnetismo son simétricas, pero el comportamiento del electromagnetismo dentro de un material superconductor no lo es.
UĄÿČûĈĉo ùċħĄĊÿùo 23
Ruptura de simetría
En el modelo estándar resulta esencial averiguar por qué las fuerzas electrodébiles son asimétricas: el electromagnetismo es de largo alcance, pero el radio de acción de la fuerza nuclear débil es muy pequeño. Se cree que estas fuerzas son, en realidad, simétricas, pero que su simetría está oculta, o como también se dice, «rota».
Simetría magnética espacial
Imaginemos, como símil, una matriz o parrilla infinita de limaduras magnéticas. La simetría consistiría en la equivalencia espacial de todas las direcciones. La simetría es evidente a temperaturas elevadas. Las limaduras, por agitación térmica, se orientan cada una libremente, en una dirección cualquiera.
Al descender la temperatura, las limaduras se alinean unas junto a otras. Tal alineación, más ordenada, es menos simétrica, pues una dirección tomada al azar prevalece sobre las demás.
Simetría
Simetría rota
Simetría electrodébil
Esta simetría es más abstracta. Significa que se tiene libertad para decidir qué leptones son electrones y cuáles, neutrinos, o bien para rotular los quarks arriba y abajo.
En el caso simétrico, el convenio del nombre de los leptones (representado por una flecha) se establece de forma independiente en cada punto del espacio. Lo que una persona denomina «electrón» podría ser llamado «mezcla de electrón y neutrino» por otra, sin que ello implicase diferencias para sus predicciones.
En la ruptura de la simetría, el convenio ha de ser fijado en todas partes por igual. La denominación «electrón» significa lo mismo para todos. El campo de Higgs es responsable de esta ruptura de la simetría.
La simetría electrodébil hace que las partículas portadoras de fuerza electrodébil carezcan de masa.
10
–9
Mas
as d
10
ne e los
utr i
W+
W–
La ruptura de la simetría confiere masas a los bosones W y Z, y con ello limita su alcance.
nos
E le c
–6
10
–3
ab ar k
ajo
tó P ro
n
o ond
u F ón ba Q Neutr arri ggs u k r a H Hi Q u a u o n x t r a ñ o to T W Z E nc an M E a 0 C im 10
t rón
Z
3
E sc a 1 0 la de
6 ener gías 10 (GeV )
a E sc
la e
l
ro ec t
L
dé b
UN ENIGMA PLANTEADO POR EL HIGGS
il
ed í mit
el L
En el superconductor, los fotones adquieren masa, y limitan así la intrusión de campos magnéticos en el material. Resulta que tal fenómeno constituye un prototipo perfecto para la teoría electrodébil. Si el espacio estuviera lleno de un tipo de «superconductor» que afectase a la interacción débil en lugar de afectar al electromagnetismo, le conferiría masa a los bosones W y Z y limitaría el alcance de las interacciones débiles. Este superconductor estaría formado por bosones de Higgs. También los quarks y los leptones adquieren su masa mediante interacciones con el bosón de Higgs [véase «El bosón de Higgs», por M. J. G. Veltman; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, enero de 1987]. Estas partículas, al adquirir masa por este procedimiento, en lugar de poseerla en forma intrínseca, siguen siendo compatibles con lo exigido por la simetría de la fuerza débil. La teoría electrodébil moderna (con bosones de Higgs) da cuenta con mucha precisión de un amplio abanico de resultados experimentales. De hecho, este paradigma (quarks y leptones como elementos constituyentes, en interacción mediante bosones de gauge) hizo revisar de raíz la concepción de la materia y apuntó la posibilidad de que las interacciones electromagnética, débil y fuerte se confundan en una cuando las partículas estén provistas de energías muy elevadas. La teoría electrodébil constituye una hazaña intelectual asombrosa, aunque todavía incompleta, pues si bien indica la forma de que los quarks y los leptones adquieran masa, no pronostica cuánta tendría que ser. La teoría electrodébil deja también indefinida la masa del propio bosón de Higgs: la existencia de la partícula es esencial, pero la teoría no predice su masa. Muchos de los problemas más señalados de la teoría de partículas y en cosmología se hallan vinculados al pro-
HC
Interv alo
ión ac il? c ifi b un odé e d c tr gía-ele r ne e ¿E uert f
inexp licado
9
10
El problema de las jerarquías: 12 10 Todas las partículas podrían ser situadas en una escala de energía, o lo que es equivalente, de masa. Las partículas conocidas poseen tanta, que su creación exige máquinas colosales; pero aun así, su masa-energía es mucho menor de la necesaria para la unificación de las fuerzas o para que la gravedad intervenga. ¿A qué se debe esta separación? Se ignora. El enigma es especialmente agudo en el Higgs. Procesos de energía extremadamente elevada tienden a exigir que su masa exceda con mucho 1 TeV. ¿Qué la mantiene inferior?
24 Tûăaĉ 63
SLIM FILMS
¿ Q U É H AC E E L H I G G S ?
15
10
18
10
u ¿C
ck ánt lP an cu d de a íg a aved er r En ¿G ? as d er
1er Trimestre 2011
? ic a
blema de la determinación exacta de cómo se rompe la simetría electrodébil.
SLIM FILMS
EL MODELO ESTÁNDAR REFIERE SU HISTORIA
EXTENSIONE S
Se busca: nueva física
H
todavía invisible. Las medidas de precisión, al ser confrontadas con las previsiones teóricas, dan indicación de la existencia del Higgs, y sugieren que su masa no debe exceder los 192 GeV. Que el Higgs tenga masa menor de 1 TeV, como parece necesario, entraña un curioso enigma. En la teoría cuántica, las magnitudes físicas, la masa entre ellas, no quedan determinadas y fijadas de una vez por todas, sino que son modificadas por efectos cuánticos. Al igual que el Higgs puede ejercer influencia sobre otras partículas sin aparecer abiertamente en escena, otras partículas podrían hacer otro tanto sobre el Higgs. Tales partículas se presentarían en una amplia gama de energías; su efecto neto dependería del punto exacto en el que el modelo estándar cediera el paso a una teoría más profunda. Pues si el modelo estándar siguiera vigente hasta los 1015 GeV, nada menos que 1012 TeV, energía a la cual se cree que tiene lugar la unificación de las interacciones fuerte y electrodébil, partículas de energías verdaderamente titánicas actuarían sobre el Higgs y le conferirían una masa relativamente grande. ¿Por qué, pues, parece que la masa del bosón de Higgs no pasa de 1 TeV? A esa paradoja se la conoce por «problema de las jerarquías». Una posible solución consistiría en un precario equilibrio de sumas y restas de grandes números, correspondientes a las contribuciones antagónicas de diferentes partículas. Pero los físicos han aprendido a desconfiar de cancelaciones inmensamente precisas que no vengan ordenadas por principios más profundos. En consecuencia, y en ello concuerdo con muchos de mis colegas, me parece sumamente probable que en el LHC se descubran el bosón de Higgs y otros muchos fenómenos nuevos.
Los teóricos de los años setenta, animados Lo que mantiene la masa del Higgs por una serie de prometedoras observacioen la vecindad de 1 TeV tiene que prones, empezaron a tomarse el modelo esceder de más allá del modelo estándar. tándar con la seriedad suficiente como Se han propuesto muchas soluciones para sondear sus límites. A finales de 1976, hipotéticas; el Gran Colisionador de Benjamin W. Lee, del Laboratorio NacioHadrones decidirá. He aquí tres líneas nal del Acelerador Fermi en Batavia, Haprometedoras: rry B. Thacker, ahora en la Universidad del Oeste de Virginia, y quien escribe diseñaSUPERSIMETRIA ron un experimento conceptual destinado Lo que tiende a aumentar la masa del Higgs es a investigar cómo se comportarían las su interacción con las llamadas partículas virtuales: copias de quarks, leptones y de otras fuerzas electrodébiles a energías muy elepartículas que se materializan temporalmente vadas. Imaginamos colisiones entre pares en torno al Higgs. Pero si cada partícula de bosones W, Z y de Higgs. Tal ejercicio estuviera asociada con una superpareja, cada podía parecer bastante fantasioso, porque una compensaría a la otra y cuando realizamos aquel trabajo no se hala masa del Higgs se bía descubierto ni una sola de estas partímantendría pequeña. culas. Pero los físicos tienen la obligación TECNICOLOR de poner a prueba cualquier teoría y exaEs posible que el bosón de minar sus consecuencias como si todos sus Higgs no sea una auténtica partícula elemental, elementos fueran reales. sino un puñado de constituyentes más Lo que observamos fue una sutil intefundamentales, de forma muy parecida al racción entre las fuerzas generadas por esprotón, que constituye en realidad una tas partículas. Nuestros cálculos, que se minigalaxia de quarks y gluones. En tal caso, la masa del Higgs sería consecuencia extendieron hasta energías muy elevadas, de la energía de sus adquirían sentido en el caso de que la componentes y no sería tan masa del bosón de Higgs no fuese demasensible a procesos muy siado grande: la equivalente a no más de energéticos que le 1012 electronvoltios, o 1 TeV. Si la masa del aportasen masa. bosón de Higgs resulta inferior a 1TeV, las DIMENSIONES interacciones débiles se conservarán poco EXTRA intensas y la teoría operará fiablemente a Si el espacio tuviera más dimensiones que las todas las energías. Si la masa del Higgs extres que conocemos, las partículas podrían cediese de 1TeV, las interacciones débiles interactuar de distinta forma a grandes energías se intensificarían en el entorno de esas y la energía de unificación que se ha venido energías y se seguiría todo tipo de proceconjeturando no tendría que ser tan elevada sos de partículas exóticas. Una condición como ahora se piensa. El problema de las jerarquías recibiría una nueva formulación e del tipo de la nuestra resulta interesante incluso podría desaparecer. porque la teoría electrodébil no pronostica directamente la masa del Higgs. SUPERSIMETRÍA, TECNICOLOR Semejante umbral para la masa signiY DIMENSIONES ADICIONALES fica, entre otras cosas, que habrá de ser Los físicos teóricos han explorado muy descubierto algo nuevo —sea el bosón de diversas vías con el propósito de resolver Higgs, o algún otro tipo de fenómenos— el problema de las jerarquías y han precuando el experimento sea transformadicho nuevos fenómenos. Entre las opciodo de conceptual en real por mediación nes con mayores posibilidades se halla la del LHC. supersimetría, que supone que cada parNo es imposible que en los experimentos se haya observado tícula cuenta con una supercompañera, no observada aún, de ya la influencia que el bosón de Higgs ejerce entre bastidores, sin la que se diferencia en espín [véase «¿Es supersimétrica la nasalir a escena. Este efecto sería otra consecuencia del principio turaleza?», por Howard E. Haber y Gordon L. Kane; IĄČûĉĊÿde indeterminación: las partículas de gran masa, como el bosón ýaùÿĶĄ ď CÿûĄùÿa, agosto de 1986]. Si la naturaleza fuese exacde Higgs, tienen una existencia demasiado efímera para la ob- tamente supersimétrica, las masas de las partículas y las de servación directa, pero esta duración sí puede ser suficiente para sus supercompañeras serían idénticas; sus respectivas influendejar una sutil impronta sobre los procesos de otras partículas. cias sobre el bosón de Higgs quedarían mutuamente cancelaCon el LEP (Gran Colisionador Electrón-Positrón) del CERN, que das. Mas, si tal fuera el caso, a estas alturas tendrían que hafue el anterior inquilino del túnel donde ahora reside el nuevo ber sido observadas ya las partículas supercompañeras. Pero colisionador de hadrones, ya se detectaron efectos de esta mano no lo han sido. Por tanto, si existe la supersimetría, esta habrá
InvestigacionyCiencia.es
UĄÿČûĈĉo ùċħĄĊÿùo 25
SOBRE EL ORIGEN DE LA MASA
La simetría oculta que da forma a nuestro mundo
FILOSOFÍA
Un decenio de descubrimientos Muchos físicos opinan que los diez o quince últimos años han sido un período de consolidación de la física de partículas. De hecho, han sido años apasionantes, años de preparación del escenario para revoluciones venideras.
Una nueva ley de la naturaleza
La teoría electrodébil, un elemento clave del modelo estándar, ha sido verificada en numerosos experimentos y en una pasmosa gama de distancias, desde las subnucleares hasta las galácticas.
La masa del neutrino
Los detectores de partículas han establecido que los distintos neutrinos pueden transmutarse entre sí. Estas escurridizas partículas han de poseer masa, cosa que el modelo estándar no explica de forma natural.
El quark cima
El quark cima fue descubierto en experimentos del Fermilab, en colisiones entre protones y sus homólogos de antimateria, los antiprotones. El quark cima
26 Tûăaĉ 63
destaca porque su masa es unas 40 veces mayor que la de su pareja, el quark fondo.
Un espejo imperfecto
En el KEK (laboratorio japonés de física de alta energía) y en el Acelerador Lineal de Stanford (SLAC) se han detectado diferencias entre las desintegraciones de mesones B y las de sus antipartículas. Tales sutiles asimetrías explican en parte por qué el universo contiene tan poca antimateria.
Formas inéditas de materia y energía
Una notable concordancia de observaciones astronómicas indica que vivimos en un universo aproximadamente euclídeo («plano»), dominado por materia oscura y por una forma sin identificar de energía oscura, inductora de la aceleración cósmica.
de ser una simetría rota. La influencia neta sobre el bosón de Higgs todavía resultaría aceptablemente pequeña si las masas de las supercompañeras no excedieran de alrededor de 1 TeV, con lo que quedarían al alcance del LHC. Otra opción, a la que se ha dado en llamar «tecnicolor», presume que el bosón de Higgs no es una partícula fundamental genuina, sino que está integrada por constituyentes todavía no observados. (El nombre de «tecnicolor» alude a una generalización de la carga definitoria de la interacción fuerte, o «carga de color».) Las colisiones a energías que ronden 1 TeV (la energía que mantiene de una pieza al Higgs) nos permitirían examinar su interior y poner de manifiesto que su naturaleza es compuesta. Con el tecnicolor, lo mismo que con la supersimetría, el LHC dejaría en libertad a toda una cohorte de partículas exóticas. Una tercera idea, muy atrevida, sostiene que el problema de las jerarquías se esfumará al examinarlo de cerca, porque el espacio posee en realidad no solo las tres dimensiones en las que nos movemos, sino otras adicionales. Estas dimensiones supernumerarias podrían modificar la ley que expresa la intensidad de las fuerzas en función de la energía y por la que acabarán fundiéndose entre sí. En tal caso, la fusión de las fuerzas —y la instauración de una nueva física— podría no
1er Trimestre 2011
PAT LACROIX/GETTY IMAGES
De no existir el mecanismo de Higgs, ¡qué diferente sería este protón, un electrón y un antineutrino en el plazo de unos 15 minumundo! Las partículas elementales de materia, como los quarks y tos, por término medio. Si desaparecieran las masas de los quarks, los electrones, carecerían de masa. No por ello, sin embargo, deja- un protón libre se desintegraría en un neutrón, un positrón y un neuría el universo de contener masa. Una de las cosas que el modelo trino. En consecuencia, no podrían existir átomos de hidrógeno. El estándar hace ver, aunque no sea suficientemente valorada, es que «núcleo» más ligero consistiría en un neutrón, no en un protón. En el modelo estándar, el mecanismo de Higgs distingue entre el partículas como el protón y el neutrón constituyen materia de una clase nueva. A diferencia de lo que sucede en masas macroscópi- electromagnetismo y la fuerza débil. A falta del bosón de Higgs, tal cas, la del protón procede solo en un pequeño porcentaje de las diferencia sería inducida por la fuerza fuerte entre quarks y gluones. masas de sus constituyentes (los quarks apenas aportan un 2 por Al igual que la interacción fuerte ha confinado los quarks, con su color, ciento de la masa del protón). La casi totalidad de su masa resulta en objetos sin color, como el protón, también actuaría para diferende la famosa ecuación de Einstein, m = E/c2: la partícula almacena ciar las interacciones débil y electromagnética: otorgaría masas la energía correspondiente al trabajo necesario para confinar los pequeñas a los bosones W y Z, y el protón quedaría desprovisto de quarks en un volumen diminuto. Al reconocer que la energía de masa. Esta manifestación de la fuerza fuerte no le concedería masa confinamiento de los quarks es el origen de la masa del protón y apreciable alguna al electrón ni a los quarks. Si fuese ella la que opedel neutrón, queda explicada casi toda la masa visible del universo, rase, en lugar de hacerlo el Higgs, la desintegración beta actuaría millones de veces más deprisa que en nuestro mundo. porque la materia luminosa de las estrellas está compuesta En un universo temprano sin bosones de Higgs se principalmente por protones y neutrones. producirían y sobrevivirían algunos núcleos ligeros, Las masas de los quarks sí explican un imporpero no llegarían a formarse átomos reconocibles tante detalle del mundo real: por qué es la masa por nosotros. El radio de un átomo es inversamente del neutrón un poco mayor que la del protón. proporcional a la masa del electrón, por lo que, si Se podría esperar que el protón fuese el de el electrón tuviera masa nula, los átomos, cuyo mayor masa de los dos porque su carga elécdiámetro, en nuestro mundo, es de menos de un trica, al contribuir a su energía intrínseca, sería nanómetro, serían infinitamente grandes. Aun una fuente de energía propia de la que el neucuando otros efectos le concedieran a los electrotrón carece. Pero las masas de los quarks inclines una masa diminuta, los átomos serían macrosnan la balanza del lado contrario. En la zona «sin cópicos. Un mundo sin átomos compactos sería un Higgs», la masa del protón sería mayor que la del mundo sin reacciones químicas y falto por comneutrón. La desintegración radiactiva beta se pleto de estructuras compuestas estables, como volvería del revés. En nuestro mundo, un neuDe faltar el Higgs, los diámetros atómicos nuestros sólidos y nuestros líquidos. trón emitido por un núcleo se desintegra en un medirían decímetros o más.
N U E VO S H O R I Z O N T E S
Cinco objetivos para el LHC Redescubrimiento del modelo estándar El primer objetivo del colisionador no es sondear lo nuevo, sino confirmar lo antiguo. La máquina va a producir partículas ya conocidas en número prodigioso (varios quarks cima por segundo, por ejemplo) y va a permitir escrutarlos con un detalle cada vez mayor.
Determinar la causa de la ruptura de la simetría electrodébil El colisionador servirá para buscar el bosón de Higgs (o lo que haga sus funciones) y determinar sus propiedades. ¿Proveerá de masa el bosón de Higgs no solo a las partículas Z y W, sino también a los quarks y a los leptones?
W
Z
Búsqueda de nuevas fuerzas de la naturaleza Nuevas partículas se desintegrarían en partículas conocidas, como electrones y sus antipartículas, los positrones. Tales partículas podrían indicar de nuevas fuerzas de la naturaleza y servirían para guiar a los físicos hacia una descripción unificada de todas las interacciones.
Producción de candidatos para materia oscura El colisionador, al permitir la observación de partículas neutras y estables creadas en colisiones de gran energía, podría contribuir a la solución de uno de los mayores problemas de la astronomía y a poner a prueba nuestro conocimiento de la historia del universo.
SLIM FILMS (ilustración); ANDREY KRAVTSOV (materia oscura)
?
Simulación de la materia oscura
¡Y sobre todo, explorar! El colisionador permitirá examinar un dominio nuevo e inmenso y buscar en él pruebas de dimensiones ocultas del espaciotiempo, nuevas interacciones fuertes, supersimetría y lo totalmente inesperado. Será preciso prestar atención a los vínculos entre las grandes cuestiones de hoy y mantenerse alerta para apreciar cuestiones nuevas que el colisionador va a suscitar.
ocurrir a 1012 TeV, sino a una energía mucho menor, relacionada con el tamaño de las dimensiones extra, quién sabe si a unos pocos TeV. En tal caso, el LHC podría abrir una rendija desde la que atisbar esas dimensiones [véase «Nuevas dimensiones para otros universos», por Nima Arkani-Hamed, Savas Dimopoulos y Georgi Dvali; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, octubre de 2000]. Hay todavía otro indicio que orienta hacia fenómenos nuevos a la escala del TeV. La materia oscura que compone el grueso del contenido material del universo parece consistir en un tipo novedoso de partícula [véase «La búsqueda de la materia oscura», por David B. Cline; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, mayo de 2003]. Si esta partícula interactúa con la intensidad de la fuerza débil, la gran explosión la habría producido en número necesario siempre que su masa se encuentre entre 100 GeV y 1 TeV. Sea la solución del problema de las jerarquías la que fuere, es probable que sugiera una candidatura para la partícula de materia oscura.
objetivos están debidamente justificados y al alcance de nuestros instrumentos experimentales, ahora que el LHC va a superar las limitaciones del Tevatrón del Fermilab. Las respuestas que nos proporcione no solo serán satisfactorias para la física de partículas, sino que nos permitirán también profundizar en nuestra comprensión del mundo que nos rodea. Pero el cuento no acaba con estas expectativas, por altas que ya sean sus miras. El LHC podría facilitarnos pistas conducentes a la plena unificación de fuerzas o indicaciones de que las masas de las partículas obedecen una pauta racional [véase «La unificación de la física», por Steven Weinberg; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, enero de 2000]. Cualquier interpretación que se proponga de partículas nuevas tendrá consecuencias para desintegraciones raras de las partículas que conocemos. Es muy probable que, alzado el velo de la interacción electrodébil, resulte posible apreciar con más claridad el perfil de estos problemas, cambiar nuestra forma de concebirlos y obtener inspiración para futuros avances experimentales.
REVOLUCIONES EN LONTANANZA
Abierto el paso hacia las energías del orden del TeV, se podrá explorar un nuevo mundo de física experimental. La prioridad fundamental de los experimentos con aceleradores consistirá desde ese momento en la concienzuda exploración de este mundo, donde habremos de medirnos con la ruptura de la simetría electrodébil, el problema de jerarquía y la materia oscura. Los
InvestigacionyCiencia.es
PA R A S A B E R M Á S
LHC Physics: The first one-two year(s). F. Gianotti y M. Mangano en Proceedings of the 2nd Italian Workshop on the Physics of Atlas and CMS, págs. 3-26. Dirigido por G. Carlino y P. Paolucci. Frascati Physics Series, vol. 38; 2005. Particles and the Standard Model. Chris Quigg in the new physics for the twenty-first century. Dirigido por Gordon Fraser. Cambridge University Press, 2006.
UĄÿČûĈĉo ùċħĄĊÿùo 27
Artículo publicado en Investigación y Ciencia, n.o 263
PA R T Í C U L A S Y C U E R DA S
Unificación y dualidad en teoría de cuerdas Las teorías de cuerdas son las más firmes candidatas para lograr una descripción unificada de todas las interacciones fundamentales de la naturaleza. Constituyen, sin embargo, aspectos parciales de la teoría M Luis E. Ibáñez
U
o o o o o a o o o cos desde hace más de cien años es la consecución de una teoría final o unificada para todas las leyes de la naturaleza. Se trata de hallar una teoría que describa las leyes que rigen todas las interacciones fundamentales unificadas en su diversidad por un número pequeño de principios. Ante este reto, la primera pregunta que surge es si la naturaleza muestra o no interés en la unificación de sus leyes. La experiencia acumulada en los veinte últimos años permite decir que, efectivamente, hay una serie de pistas que indican la existencia de una unidad o relación entre las interacciones, pistas que sugieren una teoría unificada subyacente a todas ellas. En este sentido, los intentos de Albert Einstein (1879-1955) de unificar la gravitación y el electromagnetismo en los últimos años de su vida fueron prematuros. En su época se desconocían las leyes físicas de las interacciones nucleares. En cambio, a finales del siglo , tuvimos un buen punto de partida para intentar el salto hacia una unificación de todas las interacciones. Los datos experimentales son consistentes con el modelo estándar. Describe este tres de los cuatro tipos de fuerzas fundamentales: interacciones electromagnéticas, débiles y fuertes. Estos dos últimos tipos de fuerza son interacciones solo observables en el dominio nuclear o subnuclear.
Las tres fuerzas vienen descritas mediante un formalismo matemático denominado teoría cuántica de campos. Este formalismo, construido en los años cuarenta y cincuenta, es un esquema general que incorpora los aspectos fundamentales de la mecánica cuántica y la teoría especial de la relatividad. En principio, pueden construirse una infinidad de teorías cuánticas de campos. Los datos experimentales obtenidos en los aceleradores de partículas elementales en los últimos cuarenta años han permitido estudiar cómo son las tres teorías cuánticas de campos que describen las interacciones electromagnéticas, fuertes y débiles. También hemos aprendido en los últimos treinta años que toda la materia conocida está constituida por quarks y leptones. Las interacciones entre partículas elementales según estas teorías tienen lugar mediante el intercambio de otras partículas, llamadas genéricamente bosones intermediarios. Así, un par de quarks interaccionan intercambiando energía en forma de un fotón, la partícula elemental asociada a la interacción electromagnética; pueden interaccionar débilmente mediante intercambio de bosones W y Z (partículas mediadoras de la interacción débil), o fuertemente con intercambio de gluones (mediadores de la interacción fuerte). Hay otras muchas posibilidades de interacciones de formas más complicadas. El modelo estándar nos permite calcular y entender numéricamente las interacciones electromagnéticas, fuertes o débiles entre los constituyentes fundamentales de la materia.
EN SÍNTESIS
La teoría de cuerdas nace de la suposición de que, en realidad, los constituyentes últimos de la materia son objetos unidimensionales. Las partículas aparecerían como las diferentes «notas musicales» de esos objetos en vibración.
28 T
a 63
La consistencia de la teoría requiere que el espaciotiempo tenga nueve dimensiones espaciales y una temporal. Las seis dimensiones «extra» formarían un espacio compacto microscópico que las haría inobservables a bajas energías.
Existen cinco formulaciones de la teoría de cuerdas. Sin embargo, la existencia de ese espacio compacto y otros fenómenos establecen relaciones matemáticas entre todas ellas, que se interpretan así como límites de una teoría subyacente.
1er Trimestre 2011
Espacio compacto: La teoría de cuerdas requiere un espaciotiempo de diez dimensiones. Seis de ellas serían de tamaño microscópico, lo que explicaría por qué no se observan directamente a bajas energías. No obstante, ese espacio sí dejaría su huella: los cálculos muestran que el espectro de partículas e interacciones en cuatro dimensiones depende de la topología del espacio compacto.
Sin embargo, no contamos en este momento con una teoría cuántica de campos que describa las interacciones gravitatorias de las partículas. Cuando se intenta construirla nos encontramos con que, al efectuar los cálculos, se obtienen cantidades infinitas carentes de sentido: la teoría es inconsistente. En el argot se dice que la teoría es «no renormalizable».
DON DIXON
UNIFICACIÓN A ALTAS ENERGÍAS
Esta situación es una ironía de la historia de la ciencia: la primera interacción fundamental de la naturaleza que empezó a entenderse con el advenimiento de la ciencia moderna en el siglo fue la gravitación. Sin embargo, dicha interacción se resiste a una explicación en el contexto de la mecánica cuántica y va a ser la última en entenderse a nivel microscópico. Este es, sin duda, el gran problema que la triunfante física fundamental del siglo deja pendiente para el siglo . En los últimos quince años ha surgido una clase de teorías que constituyen, al parecer de muchos físicos, unas firmes candidatas para la obtención de una teoría cuántica de la gravitación. Son las teorías de supercuerdas. Estas teorías no solo parecen prometer una solución al problema de la gravitación cuántica, sino que constituyen, además, teorías unificadas de todas las interacciones de la naturaleza. Edward Witten, del Instituto de Estudios Avanzados de Princeton, ha llegado a afirmar que las teorías de supercuerdas son un trozo de física del siglo milagrosamente descubierto en el siglo . Un primer obstáculo contra la idea de una teoría unificada es la disparidad entre las cuatro fuerzas en cuestión. Las interacciones fuertes son mucho más intensas que las electromagnéticas. Para que el lector se haga una idea intuitiva, son las interacciones fuertes las que están en juego en una explosión nuclear, mientras que en el caso de un explosivo como la dinamita se trata de interacciones electromagnéticas. Por otra parte, las interacciones débiles (causantes de la radiactividad) son mu-
InvestigacionyCiencia.es
cho menos intensas que las electromagnéticas. Las gravitatorias son las más débiles de todas: es imposible notar la atracción gravitatoria entre dos objetos en la vida cotidiana. Solo nos percatamos de la interacción gravitatoria cuando las masas consideradas son enormes y compensan la debilidad de la interacción. Tal es el caso del peso de los objetos en la superficie terrestre, producido por la enorme masa de la Tierra, que compensa la debilidad de la interacción gravitatoria. ¿De qué modo pueden las cuatro interacciones, de intensidad y propiedades diferentes, formar parte de una misma teoría unificada? La respuesta se ha ido elaborando a lo largo de los últimos 30 años. El punto fundamental puede expresarse de la siguiente manera: la forma de las leyes fundamentales de la naturaleza depende de la energía en que se producen las interacciones. Esto quiere decir que, por ejemplo, las leyes que rigen el choque entre dos electrones cambian al hacerlo la energía con que chocan. No debe extrañar que el resultado de una colisión entre dos partículas dependa de la energía con que chocan (es manifiesto que el resultado de un golpe frontal de dos vehículos que marchan el uno contra el otro a 5 km/h difiere del resultado obtenido cuando van a 200 km/h). Lo sorprendente es que cambie la propia forma de las leyes fundamentales de la física. Esta idea abre la puerta a la posibilidad de una teoría unificada de las interacciones fundamentales. Es posible, en efecto, que las interacciones fuertes, electromagnéticas y débiles, cuyas intensidades y leyes difieren entre sí cuando se estudian a las energías asequibles en los laboratorios actuales, muestren un parecido creciente conforme vamos aumentando las energías. En ello estriba una de las razones principales por la cual los físicos de partículas elementales persiguen la construcción de aceleradores de partículas con cada vez mayor energía. No se trata solo de estudiar el comportamiento del modelo estándar a mayores energías, sino, sobre todo, de descubrir si, a partir de cierta energía, cambian las leyes de la física.
U
o
o 29
gía; por tanto, otra forma de obtener interacciones gravitacionales grandes es estudiar procesos graviBOSONES tatorios en presencia de muy altas energías (en vez INTERMEDIARIOS QUARKS LEPTONES de masas muy grandes). ELECTROMAGNÉTICOS Utilizando el valor conocido de la constante de e u (ELECTRÓN) Newton y rudimentos de mecánica cuántica, se MATERIA (ARRIBA) e comprueba que la interacción gravitatoria se conUSUAL d (NEUTRINO FOTÓN vierte en una fuerza de intensidad grande (compa(ABAJO) DEL ELECTRÓN) rable con las otras tres) para energías del orden de 1018 GeV. A esta escala de energías característica DÉBILES s de la gravitación se le llama energía de Planck. La (EXTRAÑO) (MUON) proximidad entre la energía de Planck (1018 GeV) y c 0 + – MATERIA la de unificación de las otras tres fuerzas (1016 GeV) W ,W ,Z (NEUTRINO (ENCANTO) EXISTENTE DEL MUON) sugiere una unificación mayor dentro de una teoA ALTAS b ría superunificada que incluiría esta vez las cuatro FUERTES ENERGÍAS (ABAJO) (TAU) interacciones. En esta «teoría del todo», las cua tro serían aspectos diferentes de una interacción t (NEUTRINO (ARRIBA) fundamental única. GLUON DEL TAU) Aunque el esquema indicado parece sugerente, la teoría unificada de las cuatro interacciones está Tabla de los constituyentes fundamentales de la materia. Toda la matodavía por llegar. El hueso más duro estriba en la teria conocida está compuesta por seis tipos de quarks y seis de leptones. interacción gravitatoria: carecemos de una teoría Los protones y neutrones de los átomos están constituidos por quarks arricuántica de la gravitación. Lo ideal sería encontrar ba y abajo. Alrededor de los núcleos de los átomos orbitan los electrones, una teoría consistente de la gravitación que adeuno de los seis leptones existentes en la naturaleza. Las interacciones elecmás fuese parte de una teoría unificada de las cuatromagnéticas, débiles y fuertes entre las partículas tienen lugar mediantro interacciones fundamentales. Todo parece indite el intercambio de otras partículas llamadas bosones intermediarios. car que para afrontar este ambicioso programa se tendrá que ir más allá de las técnicas utilizadas con La intensidad de las interacciones fuertes, electromagnéti- las otras tres interacciones (la teoría cuántica de campos). Las cas y débiles viene medida por las constantes de acoplo, mag- indeseadas, por inconsistentes, cantidades infinitas que aparenitudes numéricas de un valor aproximado de 1/8, 1/128 y 1/24 cen cuando se aplican dichas técnicas a la interacción gravitatoria así lo aconsejan. respectivamente. Utilizando las reglas de la teoría cuántica de campos se puede extrapolar y calcular cuáles serían dichas intensidades a enerTEORÍAS DE CUERDAS gías más altas. Dicho cálculo fue realizado en 1974 por H. Geor- En este punto aparecen las teorías de cuerdas. Formuladas en gi, H. Quinn y S. Weinberg, en la Universidad de Harvard. Mos- los años sesenta y setenta para describir las interacciones fuertraron que las constantes de acoplo de las tres interacciones se tes antes de que el modelo estándar quedara bien establecido, acercan a medida que aumenta la energía. La intensidad de las fracasaron en dicho intento. En 1974, J. Scherk, de la Escuela tres fuerzas se hace aproximadamente la misma a energías del Normal Superior de París, y J. Schwarz, del Instituto de Tecnoorden de 1016 GeV (un GeV equivaldría a la energía liberada en logía de California, sugirieron su utilización como candidatas a un proceso ideal en que un átomo de hidrógeno se desintegrara teorías cuánticas de la gravitación. Las teorías de cuerdas iban más allá de cualquier teoría preen pura energía siguiendo la famosa ecuación de Einstein E = mc2). Para estas energías altísimas, las tres interacciones se vuelven de cedente en un punto decisivo. Hasta entonces, todas las teorías intensidad comparable y bien pudieran corresponder a tres dife- suponían que las partículas elementales (quarks, leptones, etrentes manifestaciones de un solo tipo de fuerza. La teoría unifi- cétera) eran partículas puntuales, carentes de estructura intercada asociada sería rigurosamente válida a dichas energías e in- na («elementales»). Las teorías de cuerdas postulan que los cluiría el modelo estándar como un caso particular. A energías auténticos componentes fundamentales de la materia (al meinferiores a la de unificación, reaparecerían las tres interacciones nos cuando se examina esta a energías equiparables a la de Planck) no son objetos puntuales (partículas), sino objetos exfuertes, débiles y electromagnéticas, diferenciadas. La energía mayor que se puede alcanzar hoy en un acelera- tensos con estructura (cuerdas). Se puede representar la idea de cuerda mediante dos pundor de partículas es del orden de 1000 GeV. Necesitaríamos multiplicar por un billón dichas energías para poder estudiar en el tos Xa y Xb unidos por una goma elástica. Una partícula que se laboratorio si acontece efectivamente tal unificación. Por mu- mueve en el espacio describe una línea; una cuerda barre, al chas razones resulta inviable la construcción de un laboratorio desplazarse en el espacio, una superficie. Puede haber cuerdas de estas características; los físicos deben, pues, buscar pruebas cerradas sobre sí mismas. La partícula tiene por magnitud caindirectas de la existencia de una teoría unificada. racterística su masa, m; la cuerda tiene, por magnitud caracteSería extraño que la ubicación se diera solo entre tres de las rística de su inercia, la tensión de la cuerda, T. La tensión de las interacciones fundamentales de la naturaleza y la cuarta perma- cuerdas se mide en unidades de energía, y se postula que T es neciera al margen. La gravitación es la más débil de las cuatro del orden de la energía de Planck, 1018 GeV. interacciones. Ello se debe a la extrema pequeñez de la constanEn física, las nuevas teorías nunca aparecen destruyendo las te de la gravitación universal de Newton. Según es sabido, la teo- existentes. Siempre consisten en extensiones de las teorías prería de la relatividad establece una equivalencia entre masa y ener- existentes; en cierto límite se recuperan de nuevo las teorías anCONSTITUYENTES FUNDAMENTALES DE LA MATERIA
30 T
a 63
1er Trimestre 2011
Intensidad
que gozan de supersimetría —principio de siteriores. Tal es el caso, por ejemplo, de la teoq a metría que trata por igual a bosones y ferría especial de la relatividad, que no invalida miones— pueden cancelar los infinitos. Se les la mecánica de Newton, sino que la complellama teorías de supercuerdas. menta para el caso de cuerpos que se mueEl que algunas teorías de cuerdas podrían ven a velocidades cercanas a la de la luz. De solucionar el problema de los infinitos de la igual manera, hay que exigir que en cierto lígravitación cuántica era sabido desde los tramite las teorías de cuerdas den lugar de nuebajos de M. Green, del Colegio Queen Mary de vo a la noción de partícula elemental. Londres, y Schwarz a principios de los ochenSi representamos una cuerda abierta meta. Sin embargo, solo un número pequeñísimo diante dos puntos unidos por una cuerda q de físicos teóricos trabajaban en este tema, elástica, la tensión de la cuerda T nos mide pues las teorías de cuerdas entonces considecuán fuerte es la «goma» que une los dos radas no parecían muy prometedoras en la puntos. En una cuerda con una tensión muy b q unificación de las cuatro interacciones; se las grande, los puntos apenas se podrán separar; presumía incapaces de describir, además de la a todos los efectos, se recupera la noción de gravitación, el resto de las interacciones. partícula elemental cuando la tensión de la Tampoco parecía posible reobtener el mocuerda se hace muy grande. Una cuerda no 0 W, Z delo estándar como un límite de la teoría de se distingue esencialmente de una partícula supercuerdas. Se conocían en aquella época elemental, a no ser que se le comunique una tres tipos de teorías de supercuerdas: Tipo IIA, energía enorme, del orden de T (1018 GeV). Tipo IIB y Tipo I. Los dos primeros eran teoSolo a esas energías la estructura no puntual q rías de cuerdas cerradas y bastante análogas de las cuerdas se hace manifiesta. entre sí, no obstante poseer dos versiones de Hasta cierto punto, una cuerda equivale a supersimetría diferentes. Aunque abarcaban un conjunto infinito de partículas elementales. c q la fuerza gravitatoria, no se entendía cómo De este infinito conjunto de partículas, todas podrían obtenerse interacciones mediadas salvo unas pocas tienen masas del orden de la por bosones intermediarios cargados, como energía de Planck. En la experiencia cotidiana los que aparecen en el modelo estándar. no nos percatamos de la existencia de esta gluon Las cuerdas Tipo I eran, en cambio, teoinfinidad de partículas supermasivas porque rías de cuerdas cerradas y abiertas. Permitían las energías a nuestra disposición son ridículas tener interacciones de la clase deseada. Pero comparadas con la energía de Planck. Aparte se vio enseguida que tales cuerdas Tipo I pade estas partículas supermasivas inobservaq recían inconsistentes con la mecánica cuánbles, existen otras sin masa tan enorme. Son tica; adolecían de anomalías. las que debemos identificar con las partículas Interacciones entre partícuEl panorama cambió en 1984, cuando del modelo estándar: quarks, leptones, fotones, las elementales. En a, se ilustra Green y Schwarz demostraron que las teorías etcétera; forman la materia observable en la un par de quarks q en interacde supercuerdas de Tipo I están libres de anovida cotidiana. ción electromagnética medianmalías para determinada clase de interaccioPese a no ser directamente observables, la te intercambio de un fotón. Las nes con bosones intermediarios corresponexistencia de este conjunto de infinitas parinteracciones débiles vienen dientes a una simetría denominada SO(32). tículas supermasivas es crucial para obtener mediadas por el intercambio Pocos meses después, D. Gross, J. Harvey, la propiedad más importante de las teorías de los bosones intermediarios E. Martinec y R. Rohm, de la Universidad de de cuerdas. Confesábamos que no disponía0 W y Z (b). Por fin, en c se muesPrinceton, descubrieron dos nuevas teorías mos de una teoría cuántica de la gravitación tran dos quarks que interacciode cuerdas cerradas consistentes y sin anopor culpa de la aparición de cantidades infinan fuertemente mediante el malías; las bautizaron con los nombres de nitas en los cálculos. Pues bien, estas torres intercambio de un gluon. heterótica SO(32) y heterótica E8 E8. de infinitas partículas cancelan justamente tales infinitos. Las teorías de cuerdas son las Lo mismo que en las cuerdas Tipo I con primeras teorías cuánticas consistentes de la gravitación. Y las simetría SO(32), esas dos nuevas teorías comprenden interacúnicas existentes. Para ser precisos, solo las teorías de cuerdas ciones de tipo gravitatorio e interacciones con bosones interme-
100 GeV
InvestigacionyCiencia.es
Energía
1016 GeV
A las energías de los laboratorios actuales de física de partículas, las interacciones fuertes, débiles y electromagnéticas tienen intensidades diferentes. La teoría cuántica de campos nos permite estimar qué intensidades alcanzarían las tres fuerzas a energías mucho mayores. El resultado de este cálculo muestra que las tres interacciones tienen intensidades comparables a energías 100.000.000.000.000 de veces mayores que las que se obtienen ahora en los laboratorios. En la figura se ha representado la intensidad de cada una de las tres interacciones en función de la energía. La intensidad de las tres fuerzas se iguala a energías del orden de 1016 gigaelectronvoltios. (Un Gev vendría a ser la energía liberada en un proceso ideal de desintegración de un átomo de hidrógeno en pura energía, de acuerdo con la famosa ecuación de Einstein E = mc2.)
U
o
o 31
Una partícula en movimiento describe una línea se- a gún se desplaza (a). Una cuerda abierta de extremos Xa y Xb describe una cinta al moverse (b). Los extremos tienden a unirse, debido a la tensión de la cuerda, y solo cuando la cuerda tiene suficiente energía los extremos llegan a separarse. Una cuerda cerrada (c) describe, cuando se desplaza, un tubo. X(0)
diarios cargados, con simetrías denominadas SO(32) y E8 E8, respectivamente; por tanto, podían contener, de una manera consistente, las otras tres interacciones fundamentales de la naturaleza, no solo la gravitación. Semejante avance provocó que una avalancha de físicos teóricos se lanzaran de lleno al estudio de dichas teorías. Para comienzos de 1985 se contaba ya con las cinco teorías de supercuerdas consistentes que conocemos: las cuerdas cerradas Tipo IIA, Tipo IIB, heterótica SO(32), heterótica E8 E8 y las cuerdas Tipo I (que incluyen cerradas y abiertas). Las cinco teorías se hallan definidas en un espaciotiempo insólito, con nueve dimensiones espaciales y una dimensión temporal. Si quisiéramos describir el universo físico conocido tomaríamos solo las tres dimensiones espaciales usuales (arriba-abajo, derecha-izquierda, delante-detrás) más el tiempo. Ya en los años veinte Theodor Kaluza y Oskar Klein explicaron que podría haber dimensiones extra más allá de las tres habituales en tanto en cuanto estas dimensiones adicionales estén curvadas sobre sí mismas y tengan un tamaño pequeñísimo, de suerte que en la vida cotidiana (o incluso con el mejor microscopio o acelerador de partículas que uno pueda cons-
X(t)
b
Xa(0)
Xa(t)
Xb(t)
c
Xb(0)
truir) sea imposible percatarse de la existencia de estas dimensiones adicionales. Al proceso físico por el cual seis de las nueve dimensiones espaciales de las supercuerdas se curvan sobre sí mismas tomando tamaños mínimos se le llama compactación (o «compactificación»). DUALIDADES
El fenómeno de la compactación presenta propiedades y consecuencias importantes. Existe una simetría llamada dualidad-T bajo la cual son equivalentes dos cuerdas cerradas con una dimensión compacta de radio R o 1/R (véase el recuadro «Dualidad-T»). Cuando se aplica esta simetría de dualidad-T a las cinco supercuerdas, se encuentra una interesante unificación: la teoría Tipo IIA con una dimensión compacta con radio R es equivalente a la teoría Tipo IIB con una dimensión de radio 1/R; hay, pues, una dualidad-T entre estas dos teorías. Igualmente se advierte que la cuerda heterótica SO(32) con una dimensión de radio R es T-dual a la otra cuerda heterótica E8 E8 con una dimensión de radio 1/R. Vemos, por tanto, que, de las cinco supercuerdas existentes, la dualidad-T vincula dos pares de ellas y quedan solo tres
L A E Q U I VA L E N C I A E N T R E G R A N D E Y P E Q U E Ñ O
Dualidad-T El caso más sencillo de compactación es aquel en que una sola dimensión está curvada formando un círculo microscópico de radio R. Si R es suficientemente pequeño, no notaremos la existencia de esta dimensión. Consideremos ahora, por ejemplo, una de las cuerdas cerradas con esta dimensión compacta. Se puede demostrar que los posibles valores de los cuadrados de las energías E de las excitaciones de la cuerda en esta situación tendrán la forma: E2 =
m2 + n2 T4 R2 R2
donde n y m pueden tomar cualquier valor entero m, n = 0, ±1, ±2, etc. y R es el radio del círculo en el que está compactada la dimensión extra. T es la tensión de la cuerda. En esta fórmula, el primer término (proporcional a 1/R2) no es especial de teoría de cuerdas. La mecánica cuántica nos enseña que las energías de las partículas, cuando han de vivir en un espacio de tamaño finito, son múltiplos enteros del
32 T
a 63
inverso del tamaño (R) de dicho espacio finito. Esto es análogo a las frecuencias de vibración de las cuerdas de una guitarra, que guardan también relación con la longitud de las cuerdas. El segundo término (proporcional a R2) es puramente cuerdístico, como revela el hecho de que aparezca la tensión de la cuerda T. Representa la posibilidad de que la cuerda cerrada esté enrollada n veces alrededor del círculo de radio R en que se halla curvada la dimensión extra. A mayor radio R, la cuerda enrollada mostraría a su vez tensión creciente; por tanto, la energía aumenta al hacerlo R, lo que revela la fórmula. Es como si tuviéramos enrollada una goma elástica alrededor de un cilindro cuyo radio aumentara: la goma sufriría una tensión (energía) progresiva. La fórmula presenta una curiosa propiedad de simetría observada por K. Kikkawa y M. Yamanaka en 1984. Para simplificar las cosas tomemos unidades de energía en las que se tenga T = 1. La fórmula
sigue teniendo el mismo aspecto si hacemos el siguiente intercambio: m n; R
1 R
Desde un punto de vista matemático, esto es una mera curiosidad, pero desde un punto de vista físico, la invariancia de la fórmula bajo este intercambio indica que la energía de las excitaciones de una cuerda, cuando hay una dimensión extra de radio R, es la misma que la de una cuerda cuando el radio es 1/R. No ya las energías, sino todas las propiedades físicas de ambos sistemas, uno con una dimensión extra de radio R y otro con radio 1/R, son exactamente las mismas. Una equivalencia que llama la atención, pues, cuando R aumenta, 1/R decrece; parece, en efecto, contradecir la experiencia de la vida diaria, que nos dice que las cosas pequeñas difieren de las grandes. Para una cuerda ello no es así. La simetría en cuestión constituye el caso más sencillo de lo que se ha venido en llamar dualidad-T.
1er Trimestre 2011
L A E Q U I VA L E N C I A E N T R E D É B I L Y F U E R T E
Dualidad-S En teoría de cuerdas la intensidad de las interacciones no viene dada por constantes numéricas, sino por una variable continua denominada dilatón, . Se pueden estudiar las ecuaciones e interacciones de una supercuerda (por ejemplo, la heterótica) con las seis dimensiones extra compactadas en círculos de radio R muy pequeños. Nos encontramos entonces con que R y aparecen de forma muy análoga en las ecuaciones. Ello parecería indicar algún tipo de parentesco entre R y . Sin embargo, no se ve a primera vista qué analogía pueda darse entre una cantidad R que mide el radio de una dimensión extra y una cantidad que mide la intensidad de las interacciones. Una posibilidad sugerente es que hubiera siete dimensiones extra, en vez de seis. En este caso la teoría en total tendría 7 + 3 + 1 = 11 dimensiones espaciotemporales. En tal situación el dilatón aparece como el radio R11 de la dimensión extra añadida. En ese marco cabría entender la similitud entre los valores R y el dilatón : este último sería otro radio R11 más. Si la analogía entre R y el dilatón fuese cierta, deberíamos admitir la existencia de una simetría en la que 1/, como ocurría con dualidad-T. Sin embargo, esta nueva hipótesis parece tener bastante más alcance que la duali-
teorías independientes: Tipo I, Tipo II y heterótica. En 1990 A. Font, D. Lüst, F. Quevedo y el autor de estas líneas propusimos la existencia de una nueva simetría de dualidad en la teoría de cuerdas: la dualidad-S (véase el recuadro «Dualidad-S»). Ya hemos indicado que la intensidad de las interacciones se mide en términos de las constantes de acoplo. En teoría de cuerdas, la intensidad de las interacciones no viene dada por constantes numéricas, sino por una variable continua que lleva por nombre dilatón, . La dualidadS es una simetría de la teoría bajo el intercambio de y 1/. Ello implica que una teoría que opere con interacción de intensidad débil ( pequeño) equivale a la teoría que interaccione con fuerte intensidad, pues 1/ sería entonces grande. Se aprecia así una manifiesta analogía con la dualidad-T, salvo que ahora no se trata del radio R de una dimensión compacta, sino de la misma intensidad de las interacciones. Se trata de una equi-
InvestigacionyCiencia.es
dad-T. En efecto, si la teoría es invariante bajo el intercambio de y 1/, ello quiere decir que la teoría en interacción débil ( pequeño) es equivalente a la teoría en interacción fuerte, pues 1/ sería ahora grande. Una sorprendente equivalencia entre interacciones muy intensas y poco intensas. En 1975 Claus Montonen y David Olive, del CERN, habían considerado la posibilidad de una simetría análoga, aunque no en teoría de cuerdas. Estudiaban un tipo de teoría de campos en la que había a la vez partículas con carga eléctrica qe normales (un electrón, por ejemplo) y partículas compuestas con carga magnética elemental qm, los llamados monopolos magnéticos. Sugirieron que la física de cargas eléctricas con constante de acoplo grande era equivalente a la física de monopolos magnéticos con constante de acoplo pequeña. Esta dualidad de Olive-Montonen pasó inadvertida. En particular, la teoría por ellos considerada no parecía tener nada que ver con las teorías de las interacciones físicas conocidas. Las analogías con dualidad-T y la existencia de estudios precedentes generalizándolo al caso con supersimetría parecía dar fuerza a la hipótesis de dualidad-S. Las analogías llegaban más lejos. En esas teorías con cargas eléctricas y magnéticas hay
q q
q
q
Si tuviéramos una lupa ideal capaz de ver la estructura extensa (cuerdística) de las partículas elementales como los quarks, observaríamos que los procesos tienen el aspecto ofrecido en esta figura. Quarks y bosones intermediarios corresponden a cuerdas vibrando.
un tipo de partículas estables cuyas masas vienen expresadas así: M2 = qe2 +
qm2
donde qe y qm son las cargas eléctrica y magnética de la partícula, respectivamente, y representa la constante de acoplo que da la intensidad de la interacción. El primer término a la derecha de la ecuación corresponde a las partículas con carga eléctrica no nula, y el segundo, a las partículas con carga magnética no nula. Salta a la vista el parecido entre esta fórmula y la observada para la dualidad-T. En teoría de supercuerdas, en vez de , se tiene el dilatón ; los valores de qe y qm son números enteros. Todos los argumentos y analogías mencionados nos llevaron a proponer en 1990 la existencia de una simetría en ciertas teorías de cuerdas bajo la cual se intercambia: qe qm ; 1 De nuevo, y de forma totalmente análoga al caso de dualidad-T, la fórmula para las masas de estas partículas queda invariante bajo la nueva dualidad.
valencia entre interacciones muy intensas y poco intensas. La propuesta de la dualidad-S de 1990 fue acogida con interés, no exento de escepticismo. Sin embargo, los posteriores trabajos de A. Sen, del Instituto Tata de Bombay, y Schwarz, en los que verificaron que ciertos estados de monopolo magnético predichos por la dualidad-S existían en las ecuaciones para las cuerdas heteróticas, fueron disipando la reticencia. Al cambiar la actitud de la comunidad científica hacia la existencia de dualidades entre acoplo fuerte y acoplo débil, conjeturas y desarrollos teóricos llevaron a la segunda revolución de la teoría de cuerdas en 1995 (la primera fue la de 1985). TEORÍA M
Es difícil describir en orden cronológico todos los conceptos sobre teoría de cuerdas que han cambiado desde entonces. Nos limitaremos a exponer los resultados que guardan una relación más directa con
U
o
o 33
Queda por responder a la misma prela unificación entre teorías de cuerdas. Tipo-IIB Tipo-IIA gunta, aunque aplicada a la cuerda heteEn este contexto los trabajos pioneros de rótica. Consideremos la cuerda heterótiM. Duff, P. Townsend y C. Hull, sistemaca E8 E8. Sabemos que, para acoplo petizados y completados por E. Witten en D=11 1995, fueron muy importantes. queño, es una teoría de cuerdas en 10 Tipo-I TEORÍA M SUGRA Las nuevas dualidades-S reducen el dimensiones. Cuando el acoplo aumenta, número de teorías independientes. Las se manifiesta algo muy parecido al caso cuerdas Tipo I son duales-S a la cuerda heTipo IIA, según observaron en 1995 HoraHeterótica Heterótica SO(32) E8 × E8 terótica SO(32). Es decir, una cuerda Tiva y Witten. Al aumentar el acoplo se repo I con acoplo pequeño es equivalenvela la existencia de una dimensión extra La teoría M es una teoría unificada te a la cuerda heterótica SO(32) con acode radio R11 = que aumenta con . La únide todas las supercuerdas y de la teoplo 1/ (acoplo grande). Esta dualidad es ca diferencia respecto a la teoría Tipo IIA ría de supergravedad en 11 dimensioquizá la menos sorprendente, pues en estriba en que la dimensión extra no está nes. En diferentes límites de esta úniambas teorías los bosones intermediarios enrollada en una circunferencia, sino que ca teoría (denotados simbólicamente poseen la misma simetría SO(32). Por se trata de un segmento de longitud R11 por picos en la figura) se reobtienen consiguiente, hay en total dos teorías de con dos extremos. esas seis teorías. La teoría M está aquí cuerdas independientes: Tipo II y heteEn la teoría Tipo IIA y en la heterótica representada como un fragmento de rótica; las demás son duales-T o dualesE8 E8, cuando el acoplo se hace grande superficie de forma irregular. En esa S a estas dos. se obtiene una teoría en 11 dimensiones. superficie, cada punto indica diferenNo acaban aquí las relaciones entre La dualidad-T conecta estas dos teorías tes geometrías de la teoría M. teorías. Se ha descubierto que la teoría con las Tipo IIB y heterótica SO(32), resIIB es S-dual a sí misma, es autodual. La pectivamente; la dualidad-S conecta esta teoría IIA, sin embargo, presenta una sorpresa: con acoplo débil última con las cuerdas Tipo I. En último término, las cinco teoes una teoría de cuerdas en 10 dimensiones, pero conforme rías de cuerdas se hallan de una manera u otra conectadas con aumenta el acoplo se revela una dimensión espacial extra des- una teoría en 11 dimensiones. A esta misteriosa teoría se la deconocida, y se pasa a una teoría en 10 + 1, es decir, 11 dimensio- nomina teoría M. El significado de la letra M es polivalente: M nes. La teoría IIA corresponde a una teoría en 11 dimensiones, de «mágica», «madre», «membrana» y otros. en la que una de las dimensiones espaciales queda compactaNo se dispone de una formulación completa de la teoría M. da en un círculo de radio R11 = . Cuando el acoplo es pequeño, Se sabe que es una teoría en 11 dimensiones que encierrra en el tamaño de la dimensión extra R11 resulta muy pequeño y la su formulación membranas, en vez de cuerdas. Las membranas teoría es aproximadamente de 10 dimensiones. Si queremos son una generalización de la noción de cuerda donde el objeto estudiar la teoría IIA con acoplo grande, el radio R11 crece, la que vibra no tiene una dimensión, como la cuerda, sino dos, dimensión extra se torna visible y pasamos a una teoría en 11 di- como el parche de un tambor. Otra propiedad fundamental de la teoría M es que, si se examensiones. He aquí, pues, un nuevo fenómeno sorprendente: según la intensidad de las interacciones (acoplo grande o pe- mina su contenido de partículas sin masa, se ve que es igual al de cierta teoría conocida desde finales de los años setenta, si queño) aparecen o desaparecen dimensiones espaciales extra. bien desechada en su día por considerarse inviable para adquirir rango de teoría unificada. Nos referimos a la teoría de superExisten cinco tipos diferentes de teorías de supercuerdas gravedad en 11 dimensiones. La profundización reciente en la definidas en 10 dimensiones: las cuerdas Tipo IIA, Tipo IIB, misma ha permitido reinterpretar su significado y relación con Tipo I, heterótica E8 E8 y heterótica SO(32). Si se desciende la teoría de cuerdas. a nueve dimensiones compactando una dimensión, las dos La teoría M designa la estructura que subyace a la teoría de cuerdas Tipo II son equivalentes (T-duales entre sí). También cuerdas y sus extensiones. En razón de la geometría de las 10 dison T-duales entre sí las dos cuerdas heteróticas E8 E8 y mensiones espaciales de la teoría, se reobtienen como caso parSO(32). Por otra parte, las cuerdas Tipo I y SO(32) son S-duaticular las cinco teorías de supercuerdas existentes, así como la les entre sí. Por fin, las cuerdas Tipo IIA y la heterótica E8 E8 teoría de supergravedad en 11 dimensiones. Las simetrías de se pueden obtener a partir de la teoría M, definida en 11 didualidad S y T dan relaciones entre diversas configuraciones de mensiones. Pueden conseguirse, pues, todas las teorías a parla teoría M. Es teoría única en muchos aspectos. Las conexiotir de una teoría M, única. nes entre sus subteorías presentan una autoconsistencia tal que es difícil pensar en una teoría alternativa de estas características. Estamos quizás ante la candidata más firme jamás consM D = 11 truida para describir las interacciones fundamentales de la naturaleza. Pero quedamos todavía muy lejos de entender toda su S compleja estructura. Desentrañar los secretos que encierra la teoría M será, sin duda, uno de los objetivos de la física fundaSO(32) S I IIB IIA E8 × E8 D = 10 mental en los próximos años.
PA R A S A B E R M Á S
D=9
34 T
a 63
IIB
T
IIA
E8 × E8
T
SO(32)
Unity from duality. P. Townsend en Physics World, página 41, septiembre 1995. Explicación del todo. Madhusree Mukerjee en Investigación y Ciencia, marzo 1996, páginas 70-77. String duality: A colloquium. J. Polchinski en Review of Modern Physics, vol. 68, pág. 1245, 1996.
1er Trimestre 2011
KEITH PETERS
Espaciotiempo cuántico
Artículo publicado en Investigación y Ciencia, n.o 346
E S PAC I O T I E M P O C UÁ N T I C O
Agujeros negros cuánticos
Quizá se creen pronto agujeros negros en el laboratorio Bernard J. Carr y Steven B. Giddings
D
ûĉúû ćċû ĉû ÿĄČûĄĊaĈoĄ Ăoĉ aùûĂûĈaúoĈûĉ úû partículas hace casi ochenta años, se los ha utilizado para romper átomos, transmutar elementos, producir antimateria y crear partículas nunca vistas en la naturaleza. Pero con suerte quizás encaren enseguida un desafío que hará que esos logros parezcan casi vulgares. Los aceleradores podrían generar los objetos más misteriosos del universo: los agujeros negros. Cuando se piensa en agujeros negros, se suelen imaginar monstruos de masa enorme que se tragan naves espaciales, incluso estrellas enteras. Pero los agujeros que se producirían en los aceleradores de las más altas energías —quizás en el Gran Colisionador de Hadrones (LHC) del CERN, cerca de Ginebra— quedan muy lejos de esos gigantes astrofísicos. Serían microscópicos, comparables en tamaño a las partículas elementales. No desgajarían estrellas, no reinarían en las galaxias ni plantearían una amenaza a nuestro planeta, pero en algu-
nos aspectos sus características resultarían aún más extraordinarias. A causa de efectos cuánticos, se evaporarían a poco de haberse formado y emitirían tal riqueza de partículas que encenderían los detectores como árboles de Navidad. Gracias a los pormenores de esa desintegración, conoceríamos mejor el tejido del espaciotiempo y sus posibles dimensiones no observadas. LA COMPRESIÓN
En su forma moderna, el concepto de agujero negro emerge de la teoría general de la relatividad de Einstein, que predice que, cuando la materia se comprime suficientemente, su gravedad llega a ser tan intensa que delimita una región del espacio de la cual nada puede escapar. El límite de la región recibe el nombre de horizonte de sucesos del agujero negro: los objetos pueden atravesarlo para caer dentro del agujero, pero ninguno lo atravesará de nuevo para salir de ahí. En el caso más simple, en el que el espacio no tiene dimensiones ocultas o esas dimensio-
Los agujeros negros no tienen por qué ser monstruos enormes y voraces. De las teorías físicas fundamentales se sigue que los hay de los tamaños más diversos, incluso menores que las partículas subatómicas.
36 Tûăaĉ 63
Podría haber agujeros negros pequeños, residuos de las primeras etapas tras la gran explosión, cuyo estallido ocurriría en el universo actual. Los instrumentos astronómicos lo observarían en algún caso.
Si el espacio tiene dimensiones extra con las características adecuadas, el umbral de energía para la producción de agujeros negros será mucho más bajo de lo que se suponía. El LHC del CERN podría producirlos.
1er Trimestre 2011
JEAN-FRANCOIS PODEVIN
EN SÍNTESIS
InvestigacionyCiencia.es
UĄÿČûĈĉo ùċħĄĊÿùo 37
TIPOS
Agujeros negros grandes y pequeños Los agujeros negros astrofísicos son, se cree, los cadáveres de estrellas de masa elevada que se derrumbaron bajo su propio peso. A medida que otra materia cae en ellos, liberan energía potencial gravitatoria, como si fuesen plantas hidroeléctricas cósmicas. Se trata de la única fuente de energía que explica los intensos rayos X y chorros gaseosos que surgen de distintas estructuras celestes, como el sistema estelar binario de rayos X representado aquí.
Disco de acreción
Las masas de los agujeros negros microscópicos llegan hasta la de un asteroide. Quizá los colapsos gravitatorios de la materia produjeron al principio de la gran explosión objetos de ese tipo. Si el espacio tiene dimensiones extra no observadas, podrían crearse también en las colisiones de partículas energéticas del universo actual. En vez de engullir materia, emitirían radiación y se desintegrarían enseguida.
Protón
Estrella acompañante Agujero negro
Agujero negro
Chorro
nes son menores que el agujero, el tamaño de este es directamente proporcional a su masa. Si se comprimiera el Sol hasta un radio de tres kilómetros, unas cuatro millonésimas de su actual tamaño, se convertiría en un agujero negro. Para que la Tierra tuviera el mismo sino, se necesitaría comprimirla hasta un radio de nueve milímetros, alrededor de una milmillonésima de su tamaño actual. Así, cuanto más pequeño sea el agujero, más alto será el grado de compresión que se requerirá para crearlo. El grado de densidad a alcanzar por la materia comprimida crece con el inverso del cuadrado de la masa. Para un agujero de la masa del Sol, la densidad ronda los 1019 kilogramos por metro cúbico, muy por encima de la que se da en un núcleo atómico. Tal densidad es la mayor que se puede crear por colapso gravitatorio en el universo de hoy. Un cuerpo más ligero que el Sol resistiría el colapso porque las fuerzas repulsivas cuánticas entre las partículas subatómicas lo estabilizarían. Las estrellas más ligeras que podrían llegar a convertirse en agujero negro cuentan con unas seis masas solares. Sin embargo, el colapso estelar no es la única manera en que se crean agujeros negros. A principios de los años setenta, Stephen W. Hawking, de la Universidad de Cambridge, y uno de los autores (Carr) investigaron un mecanismo para generar agujeros en el universo primitivo, agujeros negros «primordiales». A medida que el espacio se expande, la densidad media de materia disminuye. Fue, pues, mucho más alta en el pasado, hasta el punto de que excedió de los niveles nucleares durante el primer microsegundo tras la gran explosión. Las leyes conocidas de la física permiten una densidad de materia de hasta 1097 kilogramos por metro cúbico, o densidad de Planck, la densidad a la cual la fuerza de la gravedad llegaría a ser tan intensa que las fluctuaciones cuánticas romperían el tejido del espaciotiempo y
38 Tûăaĉ 63
Masa: 10–23 kilogramos Radio: 10–19 metros Tiempo de evaporación: 10–26 segundos
crearían agujeros negros de solo 10 –35 metros (o longitud de Planck) con una masa de 10–8 kilogramos (o masa de Planck). No puede haber un agujero negro más ligero que ese, según las formulaciones ordinarias de la gravedad. Pesa muchísimo más que una partícula elemental, con un tamaño muchísimo menor. A medida que iba disminuyendo la densidad cósmica se irían formando agujeros negros primordiales cada vez más pesados. Cualquiera más ligero que 1012 kilogramos todavía sería menor que un protón, pero más allá de esa masa los agujeros tendrían tamaños propios de los objetos que nos son familiares. Los que se formaron durante la época en que la densidad cósmica coincidía con la densidad nuclear tendrían una masa comparable con la del Sol y serían, por lo tanto, macroscópicos. Las altas densidades del universo primitivo eran necesarias para la formación de agujeros negros primordiales, pero no suficientes. Para que una región dejara de expandirse y se convirtiese en un agujero negro tenía que ser más densa que el promedio; es decir, se requerían también fluctuaciones de densidad. Se sabe que tales fluctuaciones existieron, por lo menos a escalas grandes, pues de lo contrario nunca se habrían ensamblado las galaxias y los cúmulos de galaxias. Para que se formaran agujeros negros primordiales, estas fluctuaciones tuvieron que ser más intensas a las escalas pequeñas que a las grandes, lo que es posible pero no inevitable. Incluso sin fluctuaciones podrían haberse creado agujeros espontáneamente, en varias transiciones de fase cosmológicas; por ejemplo, cuando el universo terminó su período primitivo de expansión acelerada, o inflación, o en la época de densidad nuclear, cuando se condensaron los protones en la sopa de sus quarks constituyentes. Por lo que se refiere a todas estas posibles vías de construcción de agujeros, una condición rigurosa han de cum-
1er Trimestre 2011
DON DIXON
Masa: 10 31 kilogramos Radio: 20 kilómetros Tiempo de evaporación: 10 67 años
plir los modelos del universo primitivo: al fin y al cabo, no fue tanta la cantidad de materia que terminó dentro de agujeros negros primordiales.
DON DIXON
LA EVAPORACIÓN
El haber comprendido que los agujeros podían ser pequeños alentó a Hawking a considerar qué efectos cuánticos les afectarían. En 1974 llegó a su famosa conclusión de que los agujeros negros no solo tragan partículas, sino que también las escupen hacia el exterior [véase «La mecánica cuántica de los agujeros negros», por S. W. Hawking; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, marzo, 1977]. Hawking predijo que un agujero radia térmicamente como un carbón caliente, con una temperatura inversamente proporcional a su masa. Para un agujero de masa solar, esa temperatura es de alrededor de una millonésima de kelvin, totalmente insignificante en el universo de hoy. Mas para un agujero negro de 1012 kilogramos, la masa de una montaña, es de 1012 kelvin, que le permitiría emitir partículas sin masa (fotones) y partículas con masa (electrones y positrones). Como la emisión se lleva energía, la masa del agujero tiende a disminuir; de ahí la inestabilidad de un agujero negro. Mientras se contrae, se va calentando, emite partículas cada vez más energéticas y se contrae más y más deprisa. Cuando llega a una masa de unos 106 kilogramos, el juego se ha acabado: al cabo de un segundo, estalla con la energía de una bomba nuclear de un millón de megatones. El tiempo total para que un agujero negro se evapore es proporcional al cubo de su masa inicial. Para un agujero de masa solar, ese tiempo de vida es de 1064 años, una inmensidad inobservable. Para uno de 1012 kilogramos, es de 1010 años, aproximadamente la actual edad del universo. Por lo tanto, cualquier agujero negro primordial de dicha masa estaría terminando su evaporación y estallando ahora. Cualesquiera más pequeños, se habrían evaporado en una época cosmológica anterior. El trabajo de Hawking supuso un enorme avance conceptual porque relacionó tres áreas de la física hasta entonces dispares: la relatividad general, la teoría cuántica y la termodinámica. Fue también un paso hacia una teoría cuántica completa de la gravedad. Quizá nunca hubo agujeros negros primordiales; sin embargo, reflexionar sobre ellos condujo a notables resultados físicos. Incluso estudiar algo que quizá ni siquiera existe puede resultar provechoso. En particular, el descubrimiento planteó una profunda paradoja, que apunta a la razón fundamental de que cueste tanto reconciliar la relatividad general y la mecánica cuántica. Según la teoría de la relatividad, la información sobre lo que cae en un agujero negro se pierde para siempre. Pero si el agujero se evapora, ¿qué sucede con la información que contiene en su interior? Hawking pensaba que los agujeros negros se evaporan totalmente y destruyen la información, en contradicción con los principios de la mecánica cuántica. La destrucción de la información choca con la ley de la conservación de la energía, de ahí que este panorama resulte difícil de aceptar. Una alternativa, que los agujeros negros dejen remanentes, repele igualmente. Para que estos remanentes codificasen toda la información que hubiese podido entrar en el agujero negro, tendrían que aparecer en una variedad infinita de tipos. Las leyes de la física predicen que el ritmo de producción de una partícula es proporcional al número de tipos de dicha partícula. Por lo tanto, los remanentes de los agujeros negros se producirían a un ritmo infinito; incluso procesos físicos diarios, como encender un horno de microondas, los generarían. La natura-
InvestigacionyCiencia.es
NAC I M I E N T O
Así puede crearse un miniagujero negro Fluctuaciones primordiales de densidad: Al comienzo de la historia de nuestro universo, el espacio estaba lleno de un plasma caliente y denso. La densidad variaba de un lugar a otro; donde la densidad relativa era suficientemente alta, el plasma pudo transformarse, tras su colapso gravitatorio, en un agujero negro.
Agujero negro
Colisiones de rayos cósmicos: Los rayos cósmicos —partículas muy energéticas provenientes de fuentes celestes— formarían agujeros negros en la atmósfera terrestre que, al explotar, emitirían un chorro de radiación y de partículas secundarias detectable en tierra. Rayo cósmico
Agujero negro en explosión
Detector
Acelerador de partículas: Un acelerador de gran energía, el LHC en concreto, estrellaría una partícula contra otra a una energía tal que experimentarían un colapso gravitatorio y crearían un agujero negro. Los detectores detectarían su inmediata desintegración.
Detector
UĄÿČûĈĉo ùċħĄĊÿùo 39
E VO L U C I Ó N
Nacimiento y muerte de un agujero negro NACIMIENTO
FASE DE «CALVICIE»
FASE DE REDUCCIÓN DEL GIRO
Masa: 10 TeV Masa: 10 a 8 TeV
0 a 1 10–27 segundos
En condiciones adecuadas, el choque de dos partículas (que aquí se representan como paquetes de ondas) creará un agujero negro. El agujero recién nacido será asimétrico. Podrá rotar, vibrar y tener carga eléctrica. (Los tiempos y las masas son aproximados: 1 TeV es la energía equivalente a unos 10–24 kilogramos.)
1 a 3 10–27 segundos
A medida que progresa, el agujero negro emite ondas gravitacionales y electromagnéticas. Parafraseando al físico John A. Wheeler, el agujero «pierde pelo»: se convierte en un cuerpo casi sin rasgos distintivos, caracterizado solo por la carga, la rotación y la masa. Incluso la carga se escapa rápidamente a medida que el agujero emite partículas cargadas.
leza sufriría una inestabilidad catastrófica. Hay una tercera posibilidad: que falle el principio de localidad, según el cual los acontecimientos que ocurren en puntos espacialmente separados se influyen entre sí solo después de que la luz haya tenido tiempo para viajar entre ellos. Los teóricos siguen sin encontrar la respuesta [véase «Computación en agujeros negros», por Seth Lloyd e Y. Jack Ng; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, enero de 2005]. LA BÚSQUEDA
El progreso de la física requiere por lo general una guía experimental. Las preguntas que plantean los agujeros negros microscópicos motivan su busca empírica. Cabría la posibilidad de que los astrónomos lograran detectar agujeros negros primordiales que, dotados de una masa inicial de 1012 kilogramos, estallaran en el universo actual. La mayor parte de la masa de estos agujeros se convertiría en rayos gamma. En 1976 Hawking y Don Page, por entonces en el Instituto de Tecnología de California, argumentaron que las observaciones de rayos gamma cósmicos ponen límites superiores rigurosos al número de tales agujeros. No constituirían una proporción significativa de la materia oscura del universo y sus explosiones rara vez sucederían tan cerca como para que pudiésemos detectarlas. Sin embargo, a mitad de los años noventa, David Cline, de la Universidad de California en Los Angeles, y sus colaboradores sugirieron que las erupciones de rayos gamma más cortas que se detectan en los cielos podrían atribuirse al estallido de agujeros negros primordiales. Aunque se piensa que las erupciones más largas es-
40 Tûăaĉ 63
Masa: 8 a 6 TeV
El agujero negro ya no es negro: radia. Al principio, la emisión va a expensas del giro, de manera que el agujero se frena y adquiere una forma esférica. La radiación emerge principalmente del plano ecuatorial del agujero negro.
tán asociadas a explosiones o fusiones de estrellas, los sucesos cortos podrían tener otra explicación. Las observaciones futuras deberán resolver la cuestión. Sin embargo, la posibilidad de que las observaciones astronómicas capten las etapas finales de la evaporación de los agujeros negros resulta atractiva. La producción de agujeros negros por los aceleradores de partículas es una posibilidad aún más apasionante. Cuando se trata de producir altas densidades, ningún dispositivo aventaja a los mayores aceleradores, el LHC y el Tevatrón del Laboratorio del Acelerador Nacional Fermi, cerca de Chicago. Estas máquinas aceleran partículas subatómicas, como los protones, a velocidades muy cercanas a la de la luz. Las partículas adquieren energías cinéticas enormes. El LHC impartirá a los protones energías de alrededor de siete teraelectronvoltios (TeV). Según la famosa ecuación de Einstein E = mc2, esta energía equivale a una masa de 10–23 kilogramos, unas 7000 veces la masa en reposo del protón. Cuando dos partículas chocan en esas condiciones frontalmente, su energía se concentra en una región minúscula del espacio. Cabe imaginar que, de vez en cuando, las partículas que choquen se acercarán tanto que formen un agujero negro. Así expuesto, el argumento adolece del siguiente problema: una masa de 10–23 kilogramos cae lejos del valor de Planck de 10–8 kilogramos que, según la teoría ordinaria de la gravedad, caracteriza al agujero negro más ligero posible. Este límite inferior surge del principio de incertidumbre de la mecánica cuántica. Debido a que las partículas también se comportan como
1er Trimestre 2011
DON DIXON
TIEMPO 0
FASE DE SCHWARZSCHILD
FASE DE PLANCK
Desintegración simulada de un agujero negro que muestra la sección transversal de un acelerador y un detector de partículas. Desde el centro del tubo del acelerador (círculo negro) emergen las partículas (rayos) que quedan registradas por capas de detectores (anillos concéntricos coloreados). Masa: 6 a 2 TeV Masa: 2 a 0 TeV
3 a 20 10–27 segund
os
20 a 22 10–27 segund
C. M. HARRIS UNIVERSIDAD DE CAMBRIDGE Y THE ATLAS COLLABORATION (a la derecha)
Cuando ha dejado de girar, el agujero negro es un cuerpo incluso más simple que antes, caracterizado solamente por la masa. Incluso esta escapa, en forma de radiación y de partículas con masa que emergen en todas las direcciones.
os
El agujero se acerca a la masa de Planck —la menor masa posible para un agujero, según la teoría actual— y se asoma a la nada. La teoría de cuerdas sugiere que el agujero empieza a emitir cuerdas, las unidades fundamentales de la materia.
ondas, se difuminan a lo largo de una distancia que disminuye con el aumento de la energía: a las energías del LHC, unos 10–19 metros, la región más pequeña, pues, en que se puede empaquetar la energía de una partícula. Corresponde a una densidad de 1034 kilogramos por metro cúbico, alta aunque insuficiente para crear un agujero. Para que una partícula resultase a la vez tan energética y tan compacta como para crear un agujero negro, debería tener la masa de Planck, 1015 veces más allá de la energía del LHC. Los aceleradores podrían quizá producir objetos matemáticamente relacionados con los agujeros negros (y, según algunos teóricos, ya lo han hecho), pero los verdaderos agujeros quedarían fuera de su alcance. LAS OTRAS DIMENSIONES
No obstante, a lo largo de los últimos años se ha ido viendo que el valor que se le atribuye a la densidad planckiana quizá peque de excesivo. La teoría de cuerdas, una de las principales competidoras en la pugna por obtener una teoría cuántica de la gravedad, predice que el espacio tiene más dimensiones que las tres usuales. La gravedad, al contrario que otras fuerzas, se propagaría por estas dimensiones y, en consecuencia, aumentaría inesperadamente de intensidad a distancias cortas. En tres dimensiones, la fuerza de la gravedad se cuadruplica cuando se divide por dos la distancia entre un par de objetos; en nueve, se multiplicaría por 256. Este efecto adquiriría relevancia especial si las dimensiones extra del espacio fuesen grandes. Se ha investigado a fondo esta posibilidad en años recientes [véase
InvestigacionyCiencia.es
«Nuevas dimensiones para otros universos», por Nima ArkaniHamed, Savas Dimopoulos y Georgi Dvali; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, octubre 2000]. Hay también otras configuraciones de las dimensiones adicionales, las «compactaciones curvadas», que, con el mismo efecto de magnificar la gravedad, parecen aún más probables, al menos si la teoría de cuerdas es correcta. Este vigoroso crecimiento de la fuerza de la gravedad significa que la verdadera escala de energía en la que las leyes de la gravedad y la mecánica cuántica chocan —y se forman agujeros negros— quedaría muy por debajo de su valor tradicional. Aunque ningún indicio experimental apoya esta posibilidad por el momento, la idea aporta luz sobre numerosos enigmas teóricos. Y si fuera verdad, la densidad requerida para crear agujeros negros se hallaría al alcance del LHC. El estudio teórico de la producción de agujeros negros en colisiones de alta energía se remonta a los trabajos de Roger Penrose, de la Universidad de Oxford, a mitad de los años setenta, y de Peter D’Eath y Philip Norbert Payne, ambos entonces en Cambridge, a principios de los noventa. La ulterior hipótesis de las dimensiones adicionales grandes dio nueva vida a estas investigaciones y movió a Tom Banks, de la Universidad de California en Santa Cruz y de la Universidad Rutgers, y a Willy Fischler, de la Universidad de Texas, a efectuar un análisis preliminar en 1999. En un seminario del año 2001, uno de nosotros (Giddings) y Scott Thomas, de la Universidad de Stanford, por una parte, y por otra Savas Dimopoulos, de Stanford, y Greg Landsberg, de
UĄÿČûĈĉo ùċħĄĊÿùo 41
DIMENSIONE S EXTRA
Fábricas de agujeros negros ¿Cuánto hay que comprimir un pedazo de materia para que se convierta en un agujero negro? A mayor ligereza del cuerpo, mayor compresión se requerirá para que su gravedad alcance una intensidad tal que lo convierta en un agujero. Los planetas o un cuerpo humano están más lejos del límite de compresión que las estrellas (gráfico). La naturaleza ondulatoria de la materia resiste la compresión; las partículas no se pueden comprimir en una región menor que su longitud de onda característica (diagrama); ningún agujero podría pesar menos de 10 –8 kilogramos. Pero si el espacio tiene dimensiones adicionales, la gravedad sería intrínsecamente más intensa a distancias cortas y no tendría que comprimirse tanto el objeto. Esta posibilidad mantiene vivas las esperanzas de fabricar agujeros negros en un futuro próximo.
desintegración incluirían todas las especies de partículas de la naturaleza. Varios grupos han realizado investigaciones pormenorizadas de las señales que los agujeros negros dejarán en los detectores del LHC. LLUVIA DE AGUJEROS NEGROS
42 Tûăaĉ 63
1er Trimestre 2011
DON DIXON; JANA BRENNING (gráfica)
Tamaño (metros)
La perspectiva de crear agujeros negros en la Tierra parecerá a algunos una locura. ¿Cómo sabemos que en vez de desintegrarse, como Hawking predijo, no seguirían creciendo, hasta consumir el planeta entero? A primera vista, hay razones para preocuparse, sobre todo si se tiene en cuenta que algunos detalles del argumento original de Hawking quizá sean incorrectos, en Región donde las partículas especial la afirmación de que la informase deben comprimir para hacer ción se destruye en los agujeros negros. un agujero negro... Pero el razonamiento cuántico general implica que los agujeros negros microscópicos no serían estables; resultarían, pues, seguros. Las concentraciones de masa y energía, así una partícula elemental, son estables solo si una ley de conservación prohíbe su desintegración; entre esas leyes figuran la ...en un espacio de más dimensiones de la conservación de la carga eléctrica y la del número bariónico (que, a menos que ...en el espacio ordinario se viole de una u otra manera, asegura la estabilidad de los protones). No hay una ley de conservación que estabilice un agujero negro pequeño. En la teoría cuántica, todo lo que no se prohíbe expresamente es obligatorio. Por tanto, los agujeros negros Agujero negro supermasivo pequeños se desintegrarían rápidamente, 11 Sol 10 Tierra Protón de acuerdo con la segunda ley de la termoCuerpo Agujero negro dinámica. humano 103 Agujero negro estelar Un argumento empírico corrobora que de un acelerador Agujero negro primordial o aci las fábricas de agujeros negros no planteaen evaporación p s e un rían ningún peligro. Colisiones de alta eneren un espacio en iones Agujeros negros s o s s r en gía como las del LHC ya han ocurrido: en g de 9 dimensione 10–15 ne im 10–19 ros e 3 d el universo primitivo e, incluso, ahora, e j Agujero negro de Planck u d Ag estándar cuando inciden en la atmósfera rayos cósProhibido Prohibido por la teoría por la mecánica cuántica micos de energía suficientemente alta. De de la relatividad manera que si las colisiones a las energías 10–35 10–8 1012 1030 1038 10–27 10–23 del LHC pueden crear agujeros negros, la Masa (kilogramos) naturaleza ya los habrá estado produciendo inofensivamente justo sobre nuestras cabezas. Según las primeras estimaciones de la Universidad Brown, describieron qué se observaría en un co- Giddings y Thomas, los rayos cósmicos más energéticos —prolisionador de partículas del estilo del LHC. Tras algunos cálcu- tones, o núcleos atómicos más pesados, con energías de hasta los, quedamos asombrados. A grandes rasgos, en las circunstan- 109 TeV— generarían hasta cien agujeros negros en la atmósfecias más optimistas, correspondientes al valor admisible de la ra al año. escala de Planck que la aleja menos de la nuestra, los agujeros Además, Giddins y Thomas —junto con David Dorfan, de la negros se producirían a un ritmo de uno por segundo. Cuando Universidad de California en Santa Cruz, y Tom Rizzo, del Aceun acelerador genera partículas a este ritmo se le llama «fábri- lerador Lineal de Stanford, y, por otra parte, Jonathan L. Feng, ca»; el LHC sería una fábrica de agujeros negros. de la Universidad de California en Irvine, y Alfred D. Shapere, de La evaporación de esos agujeros dejaría en los detectores se- la Universidad de Kentucky— han descubierto que las colisiones ñales muy reconocibles. Las colisiones típicas producen una de neutrinos cósmicos quizá produzcan aún más agujeros necantidad discreta de partículas de alta energía, mientras que un gros. Si es así, el nuevo observatorio de rayos cósmicos Auger, agujero negro que se desintegrase radiaría un gran número de en Argentina, consagrado a la recogida de datos, y el renovado partículas en todas direcciones con energías muy altas, según observatorio Fly’s Eye, en Utah, captarían hasta varios agujeros se desprende de los cálculos de Hawking. Los productos de la negros al año. Estas observaciones, sin embargo, no evitarían
Universo paralelo
Nuestro universo
la necesidad de experimentos en aceleradores, que generarían agujeros de manera más fiable, en mayor número y bajo circunstancias más controladas. La producción de agujeros negros abriría toda una nueva frontera de la física. Su mera presencia ofrecería una prueba positiva de las dimensiones ocultas del espacio; observando las propiedades de los agujeros, se explorarían las características geográficas de esas dimensiones. A medida que los aceleradores fabricaran agujeros negros de masa creciente, estos explorarían más allá en las dimensiones extra y llegarían a tamaños comparables a los de una o más de ellas; ello conduciría a un cambio distintivo en la dependencia de la temperatura del agujero con la masa. Asimismo, si un agujero negro creciese tanto que entrara en intersección con un universo tridimensional paralelo en las dimensiones adicionales, sus características de desintegración cambiarían repentinamente. La producción de agujeros negros en aceleradores representaría también el final de uno de los empeños históricos de la humanidad: llegar a conocer la materia a escalas cada vez más finas. A lo largo de los últimos cien años, la frontera de lo más pequeño se ha desplazado de las motas de polvo a los átomos, de estos a los protones y a los neutrones y, por último a los quarks. Si se creasen agujeros negros en los aceleradores, se habría alcanzado la escala de Planck, la longitud significativa más corta, la distancia limitadora por debajo de
Agujeros negros de diversos tamaños sondearían dimensiones adicionales; sin ese medio, nos resultarían inaccesibles. Como la gravedad se extiende en esas dimensiones, también lo hacen los agujeros negros. Cabría variar su tamaño ajustando los aceleradores de partículas a diversas energías. Si un agujero intersecciona un universo paralelo, se desintegrará antes y parecerá que libera menos energía (porque parte de la energía la absorberá ese otro universo).
la cual las nociones de espacio y longitud dejan de tener sentido. Cualquier tentativa de investigar la posible existencia de distancias menores mediante colisiones de alta energía daría lugar, sin remedio, a más agujeros negros. Las colisiones de alta energía, en vez de romper la materia en pedazos más finos, solo generarían agujeros negros mayores. La generación de agujeros negros, por lo tanto, cerraría una frontera de la ciencia. Aparecería, eso sí, una nueva frontera, la de la exploración de la geografía de las dimensiones extra del espacio. PA R A S A B E R M Á S
Black holes and time warps: Einstein’s outrageous legacy. Kip S. Thorne. W. W. Norton, 1995. High energy colliders as black hole factories: The end of short distance physics. Steven B. Giddings y Scott Thomas en Physical Review D, vol. 65, trabajo n.o 056010, 2002. Disponible en arxiv.org/abs/hep-ph/0106219 Black holes at the LHC. Savas Dimopoulos y Greg Landsberg en Physical Review Letters, vol. 87, trabajo n.o 161602, 2001. hep-ph/0106295 Black holes from cosmic rays: Probes of extra dimensions and new limits on TeV-scale gravity. Luis A. Anchordoqui, Jonathan L. Feng, Haim Goldberg y Alfred D. Shapere en Physical Review D, vol. 65, trabajo n.o 124027, 2002. hep-ph/0112247 Black holes at accelerators. Steve Giddings en The future of theoretical physics and cosmology. Dirigido por G. W. Gibbons, E. P. S. Shellard y S. J. Rankin. Cambridge University Press, 2003. hep-th/0205027 Primordial black holes. Bernard Carr. Ibid. Trabajo parecido disponible en astro-ph/ 0310838
2011 AÑ ˜ O INTERNACIONAL DE LA QUÍMICA Las cuestiones sobre la estructura y la transformación de la materia subyacen bajo los mayores retos científicos de la humanidad. La química es, por ello, una de las ciencias más transversales y con mayor impacto en nuestra sociedad. Con motivo del Año Internacional de la Química, INVESTIGACIÓN Y CIENCIA regala cada mes, durante todo el 2011, artículos relacionados con el desarrollo y las aplicaciones de la química.
Descárgalos gratis en DON DIXON
www.investigacionyciencia.es
InvestigacionyCiencia.es
UĄÿČûĈĉo ùċħĄĊÿùo 43
Artículo publicado en Investigación y Ciencia, n.o 342
E S PAC I O T I E M P O C UÁ N T I C O
Geometría no conmutativa y espaciotiempo cuántico Resultados recientes de la teoría de cuerdas sugieren los primeros modelos de la estructura cuántica del espacio y el tiempo matemáticamente consistentes José L. Fernández Barbón teoría de Einstein la inercia de un objeto (su resistencia a la aceleración) aumenta con la velocidad, haciéndose infinita cuando alcanza la velocidad de la luz. Es decir, hace falta una energía infinita para dar alcance a un rayo de luz. Para velocidades pequeñas en comparación con la de la luz (lo que, matemáticamente, viene a ser como tomar un valor infinito de c) las fórmulas de Einstein se aproximan a las de la mecánica newtoniana. Sin embargo, a velocidades cercanas al límite se hacen evidentes todas las predicciones sorprendentes de la relatividad especial, tales como la contracción longitudinal de los objetos en la dirección de movimiento, la ralentización de los relojes móviles o la famosa equivalencia entre masa y energía: E = mc2. Desde el punto de vista matemático, el espacio y tiempo absolutos de Newton quedan fusionados en una nueva entidad denominada espaciotiempo, introducida por Hermann Minkowski en 1908. El espaciotiempo de Minkowski tiene cuatro dimensiones, las tres dimensiones espaciales ordinarias más el tiempo. Aunque es geométricamente euclídeo («plano»), matemáticamente resulta peculiar, puesto que el tiempo se comporta como si fuese una coordenada espacial, pero con valores en los núme-
EN SÍNTESIS
La relatividad general de Einstein es una teoría sobre la dinámica del espaciotiempo. Por tanto, una teoría cuántica de la gravitación implicaría dotar al espaciotiempo mismo de una estructura cuántica.
44 Tûăaĉ 63
La teoría de cuerdas constituye una formulación concreta para una teoría de gravedad cuántica. Sus predicciones incluyen la existencia de unos objetos extensos denominados D-branas.
Consideraciones relativas a la física de D-branas permiten asignar al espaciotiempo propiedades cuánticas; entre otras, el análogo de las relaciones de no conmutatividad características de la mecánica cuántica.
1er Trimestre 2011
© DREAMSTIME/JURGEN ZIEWE
C
ċĈÿoĉaăûĄĊû, Ăa ĆĈÿăûĈa ĊûoĈīa ĈûĂaĊÿČÿĉĊa úû la historia data de 1864, cuando James Clerk Maxwell escribió sus famosas ecuaciones del electromagnetismo. En la teoría de Maxwell la luz se interpreta como una onda del campo electromagnético. Lo sorprendente es que la velocidad de propagación de estas ondas es una constante, independiente del estado de movimiento del observador. Por supuesto, esta predicción se halla en contradicción directa con la mecánica newtoniana, según la cual la velocidad de cualquier cosa que recibamos será mayor si nos acercamos a la fuente, y menor si nos alejamos de esta. Se comprende así por qué la paulatina verificación experimental de la teoría de Maxwell acabó conduciendo a una profunda crisis teórica. En esencia, lo que hizo Einstein en 1905 fue resolver el dilema a favor de Maxwell mediante la construcción de una mecánica que fuera compatible con el extraño comportamiento de la luz. Queda entonces claro que la velocidad de la luz es un límite: si la velocidad de la luz, c, es siempre la misma, no parece posible «perseguir» un rayo de luz, y mucho menos «adelantarlo». En realidad, tales situaciones son imposibles porque en la
InvestigacionyCiencia.es
UĄÿČûĈĉo ùċħĄĊÿùo 45
G
Teoría general de la relatividad
Gravedad newtoniana
Mecánica cuántica no relativista
Teoría cuántica de la gravedad
Teoría especial dee la relatividad
1/c
Mecánica newtoniana
h
Mecánica cuántica no relativista
Teoría cuántica de campos
ros imaginarios. En cualquier caso, la relatividad especial, con el espacio de Minkowski sirviendo de «escenario» pasivo, comparte con la teoría newtoniana el carácter a priori del espaciotiempo. Pero la relatividad especial no tiene en cuenta los efectos de la gravitación, como si la constante G de Newton, que determina su intensidad, fuese nula. La segunda parte de la revolución einsteiniana consistió en combinar c y G en una teoría única, la teoría de la relatividad general de 1915. En ella, el espaciotiempo deja de ser pasivo, para adquirir carácter dinámico; el efecto de la gravitación equivale a la curvatura del espaciotiempo de Minkowski. Ya en el siglo ĎÿĎ, los matemáticos se dieron cuenta de que la geometría de los espacios con curvatura difiere de la geometría euclidiana. Un ejemplo sencillo de espacio con curvatura en dos dimensiones es la superficie de una esfera. De modo análogo, es perfectamente concebible que el mundo físico tridimensional aparezca «curvado» cuando se lo imagina inmerso en un espacio de dimensión superior. Esta intuición llevó a notables matemáticos del siglo ĎÿĎ, como Gauss o Riemann, a proponer que la geometría es una propiedad física que ha de ser determinada experimentalmente. Fue Einstein el que realizó esta idea de forma concreta, con la premisa de que el espaciotiempo adquiere curvatura en presencia de masas materiales con distribuciones dadas de energía, de acuerdo con un conjunto de ecuaciones de la forma: CURVATURA = G DENSIDAD DE ENERGÍA Estas ecuaciones nos dicen que la constante de Newton, G, mide la «rigidez» del propio espaciotiempo, es decir, su resistencia a ser curvado por la presencia de energía (en particular, materia). Cuando la densidad de energía es pequeña, que corresponde a campos gravitacionales débiles o a movimientos lentos en comparación con la velocidad de la luz, las ecuaciones de Einstein se aproximan a la ley de Newton, con pequeñas desviaciones que constituyen los tests clásicos de la relatividad general (el desplazamiento del perihelio de Mercurio o la curvatura de la luz en torno al Sol). Las ecuaciones de Einstein predicen además fenómenos cualitativamente nuevos, tales como las ondas gravitacionales, los agujeros negros o la propia expansión del universo.
46 Tûăaĉ 63
Mapa de las teorías físicas: según aparezcan en ellas las tres constantes fundamentales (G, , c) con su valor real o con su límite nulo o infinito. La síntesis final sería una teoría de los fenómenos físicos válida para los valores finitos de c, y G sin tener que tomar límites simplificadores; es decir, una teoría cuántica de la gravitación, que recuperaría las demás teorías parciales como límites particulares. Esa teoría sigue representando la frontera de la investigación.
Una de las nociones familiares de la mecánica celeste es la de velocidad de escape de un campo gravitacional, definida como la velocidad mínima necesaria para que un satélite no quede atrapado en ninguna órbita cerrada. Por ejemplo, para el caso de las sondas espaciales Voyager, que se alejan hasta la parte exterior del sistema solar, la velocidad de escape es de unos 11 kilómetros por segundo. Pues bien, la noción de velocidad de escape sigue siendo válida en la teoría relativista, y su consecuencia más sorprendente es que una masa M comprimida en una esfera de radio inferior a un cierto valor crítico, Rs = 2GM/c2, tendría una velocidad de escape superior a la velocidad de la luz. Esto significa que nada, ni siquiera la propia luz, podría escapar del campo gravitacional de esta masa, justificando el nombre de «agujero negro». El radio crítico Rs, denominado radio de Schwarzschild, representa una superficie de no retorno (llamada horizonte de sucesos) ya que, una vez atravesada, es imposible salir de nuevo al exterior. Para hacernos una idea, el radio de Schwarzschild del Sol tiene unos pocos kilómetros. Si toda la masa del Sol se comprimiera por debajo de este radio crítico, la curvatura del espaciotiempo en la vecindad del Sol sería tal que se convertiría en un agujero negro. Los agujeros negros no son solo soluciones exóticas de las ecuaciones de Einstein. Su existencia como objetos astrofísicos asociados a fuentes de rayos X o a los centros de las galaxias está prácticamente aceptada por la comunidad científica. Como veremos, también resultan cruciales en las especulaciones teóricas sobre la teoría cuántica de la gravitación. EL ESPACIOTIEMPO A TRAVÉS DEL MICROSCOPIO CUÁNTICO
La revolución cuántica fue conceptualmente más radical. Así como la velocidad de la luz controla la estructura del espacio y del tiempo en la relatividad, otra constante universal, , establece otro límite físico infranqueable y dicta el comportamiento de la materia a escala atómica. Representa la acción mínima posible. La acción (una magnitud física menos familiar que la velocidad) es el producto de la energía de un cierto proceso físico por el tiempo característico en el que esa energía es liberada. La constante de Planck es, más o menos, la acción típica de un electrón en una órbita atómica. Un fenómeno será clásico cuando su acción resulte mucho mayor que (es decir, el límite clásico corresponde matemáticamente a 0). La naturaleza de está ligada a un carácter fundamentalmente «difuso» de las partículas subatómicas. Resulta que la idealización matemática de una partícula como un punto que sigue una trayectoria bien definida es inadecuada cuando la acción de esa trayectoria es del orden de . Es más adecuado imaginar, siguiendo a Feynman, que las partículas cuánticas siguen todas las trayectorias posibles simultáneamente. El movimiento es, al pie de la letra, un promedio entre todas las posibilidades, cada una con un cierto peso estadístico. Esta caracterización del movimiento de las partículas cuánticas se puede elevar a la categoría de principio fundamental de la mecánica cuánti-
1er Trimestre 2011
ca: cuando un proceso se puede realizar a través de varias historias alternativas, las leyes de la mecánica cuántica determinan la probabilidad de que ocurra el proceso mediante un promedio adecuado de todas las posibilidades. Una medida cuantitativa del grado de fluctuación de las trayectorias viene dada por la relación de indeterminación de Heisenberg. De acuerdo con este resultado fundamental, el producto de las indeterminaciones en posición, X, y en impulso, P, de una partícula ha de ser mayor que la constante de Planck. En fórmulas: X P /2, donde el impulso está definido como el producto de la masa por la velocidad, P = m · v. Para definir una trayectoria con exactitud es necesario especificar la posición y velocidad de la partícula en un momento dado, pero esto es imposible, ya que la precisión absoluta de la posición, X 0, implica una incertidumbre total en la velocidad, P y viceversa. Desde el punto de vista pragmático, la consecuencia más importante de las relaciones de Heisenberg es que los microscopios cuánticos cuestan mucha energía. En efecto, para estudiar un sistema físico con una precisión espacial de orden X, hace falta comunicar un impulso de orden /X a esa región del espacio. Como el impulso cuesta energía, se explica así por qué son necesarios aceleradores cada vez más energéticos para estudiar distancias cada vez más diminutas. Las relaciones de Heisenberg son la expresión gráfica de la estructura matemática de la mecánica cuántica. Estas matemáticas, un tanto exóticas, se basan en que la posición y el impulso no son números ordinarios, sino objetos denominados matrices. La característica definitoria de las matrices es que, al multiplicarlas, el orden de los factores sí altera el producto. Es lo que se denomina una multiplicación «no conmutativa». En símbolos: X · P no es lo mismo que P · X en el mundo cuántico, donde 0. Es decir, la limitación física impuesta por la existencia de está asociada a una no conmutatividad fundamental entre posiciones y velocidades. El intento de aplicar las leyes de la mecánica cuántica a partículas relativistas (con velocidades próximas a c) lleva directamente a la teoría cuántica de campos. La novedad principal de la teoría cuántica de campos es que trata de colectivos de partículas, de forma que las partículas individuales pueden crearse y destruirse localmente. Según la ecuación de Einstein, E = mc2, la energía «condensada» en forma de masa no es diferente en esencia de otras formas de energía. Así que la energía de movimiento de partículas suficientemente rápidas puede condensarse en forma de otras partículas con masa, y viceversa; una partícula pesada puede donar su energía de reposo desintegrándose espontáneamente en otras partículas. El principio fundamental de la mecánica cuántica nos dice que debemos promediar sobre todas las alternativas posibles en la historia de un proceso dado. Por ejemplo, si una partícula A se puede desintegrar en otras partículas B y C, que a su vez se pueden aniquilar mutuamente y crear A, este proceso A B + C A sucederá con una cierta probabilidad como «historia intermedia». En un sentido operacional, las relaciones de Heisenberg siguen siendo ciertas en el caso relativista, de forma que X y P todavía representan la precisión en la medida de posición y de impulso, aunque esta medida no involucre necesariamente una sola partícula. Lo que parece una trayectoria fluctuante de una sola partícula cuando se analiza con un «microscopio» de baja resolución espacial (es decir, con un acelerador de partículas de baja energía), se vuelve una cascada recurrente de procesos de creación y aniquilación de múltiples partículas al aumentar la energía del acelerador. Para procesos a energías muy altas, el
InvestigacionyCiencia.es
impulso y la energía son proporcionales. De aquí se deduce, usando las relaciones de Heisenberg, que la máxima precisión posible en nuestras mediciones es inversamente proporcional a la energía comunicada a la región del espacio, de acuerdo con la fórmula básica L c/E. La recurrencia ad infinitum en la formación de cascadas de partículas a medida que aumentamos la energía es una característica esencial de la teoría cuántica de campos que, no obstante, complica mucho su estructura matemática. La elaboración del delicado formalismo matemático necesario no se alcanzó hasta 1948 para el caso de las interacciones entre electrones y fotones, con los trabajos de Schwinger, Tomonaga, Feynman y Dyson. Para el resto de las partículas del modelo estándar la solución no llegaría hasta 1971, de la mano de los holandeses ‘t Hooft y Veltman. Las teorías de campos que satisfacen este rígido requerimiento matemático se llaman renormalizables en la jerga de los físicos. El actual modelo estándar es la teoría renormalizable más general compatible con su contenido en partículas y sus simetrías. El espaciotiempo de la teoría cuántica de campos es minkowskiano: la fuerza gravitacional entre las partículas subatómicas es tan pequeña que los efectos de G son despreciables a escala atómica (es la teoría del límite G 0). Ahora bien, nuestra capacidad de medir las propiedades geométricas del espacio de Minkowski queda condicionada por las leyes de la mecánica cuántica. Desde el punto de vista práctico, esta limitación se traduce en la regla del «microscopio cuántico»: una precisión hasta distancias de orden L requiere la concentración de una cantidad de energía c/L. Además, la medida no puede realizar-
a
b
En la teoría de la relatividad general, la fuerza gravitacional se reinterpreta como la curvatura del espaciotiempo en las proximidades de un objeto masivo (a). Cuando la energía está suficientemente concentrada, la deformación del espaciotiempo puede cambiar su estructura topológica, formándose un agujero negro (b). En un sistema de coordenadas adecuado, un agujero negro puede representarse como un tubo infinito, en cuyo extremo se halla el horizonte de sucesos.
UĄÿČûĈĉo ùċħĄĊÿùo 47
se analizando el comportamiento de partículas individuales, sino que el aumento de la energía necesariamente trae consigo la proliferación de los procesos de creación y aniquilación de partículas. Los grandes aceleradores de partículas, se convierten así en los microscopios más potentes. Alcanzando energías de cien veces la masa en reposo del protón, miden la estructura del espaciotiempo hasta distancias de 10–15 centímetros, una diezmilésima del tamaño del protón. Hasta ahí, se ha comprobado que las miles de predicciones del modelo estándar, dependientes de unos veinte parámetros numéricos determinados experimentalmente, representan una descripción fiel de la física microscópica. La próxima generación de aceleradores, como el LHC del CERN, constituirán «microscopios» al menos diez veces más potentes. GRAVITACIÓN CUÁNTICA Y DISTANCIA MÍNIMA
La identificación einsteiniana entre la gravitación y la geometría tiene una consecuencia inmediata: que una teoría cuántica de la gravitación implica una estructura cuántica del propio espaciotiempo. Se plantea entonces la cuestión de qué nuevo límite de la naturaleza será desvelado, por analogía con los límites asociados a c y . Aun sin disponer todavía de una teoría precisa de la C A M P O S C UÁ N T I C O S
Procesos elementales
Los procesos elementales que contribuyen a la interacción entre un protón (P) y un electrón (e–) en teoría cuántica de campos revisten particular interés (a). El protón emite un fotón (una partícula de luz, ) en un punto del espaciotiempo. El fotón es absorbido en otro punto del espaciotiempo por el electrón, aunque existe una cierta probabilidad de que este fotón genere espontáneamente un par electrón-positrón de vida breve o promueva incluso procesos más complicados. La posición de los «vértices», en los que hay creación o aniquilación espontánea de partículas, así como las trayectorias entre dos vértices consecutivos, están sujetas a fluctuaciones cuánticas. Los cálculos detallados demuestran que la suma coherente de todas estas «historias» alternativas es la versión cuántica de la fuerza electromagnética entre el protón y el electrón. De ahí la expresión «teoría cuántica de campos». En (b), la trayectoria de una partícula sufre bifurcaciones por cascadas de creación y aniquilación de partículas. Estos efectos son muy significativos a energías suficientemente altas.
a P
P
P
e–
+ P e–
b
48 Tûăaĉ 63
e+
e– + ...
e– e–
gravitación cuántica, podemos adelantar argumentos que sugieren el establecimiento de una distancia física mínima. La aplicación directa de las reglas de la mecánica cuántica a la teoría de la gravitación de Einstein da lugar a inconsistencias matemáticas. Lo más fácil es intentar formular una teoría cuántica de las ondas gravitacionales, vibraciones de la geometría espaciotemporal similares a las ondas electromagnéticas. Cuánticamente, se pueden ver como conjuntos coherentes de partículas, de la misma manera que una onda electromagnética es un conjunto coherente de fotones. Los análogos gravitacionales de los fotones se denominan gravitones. A las energías de los laboratorios actuales, los gravitones individuales interaccionan de manera tan débil que siempre se han escapado a una detección directa. Resulta, sin embargo, que las interacciones entre gravitones producen cascadas de creación y aniquilación demasiado violentas a medida que consideramos distancias cada vez menores (o energías cada vez mayores), de tal forma que la delicada estructura matemática que funcionaba para las demás partículas del modelo estándar fracasa estrepitosamente para los gravitones. En la jerga de los físicos, la teoría cuántica de los gravitones no es renormalizable. La experiencia con otros casos similares de teorías no renormalizables sugiere una explicación posible: que el gravitón no sea una partícula fundamental, sino que tenga componentes a una escala de distancias determinada por la intensidad intrínseca de la interacción gravitacional. Si esta idea es correcta, el gravitón revelaría sus componentes en la vecindad de la escala de Planck: Lp = G/c3, la única magnitud con dimensiones de longitud que se puede formar con las tres constantes fundamentales de la física, c, y G. Numéricamente, vale unos 10–33 centímetros, una distancia fantásticamente pequeña, mucho más allá de nuestra capacidad técnica en la construcción de aceleradores de partículas. La longitud de Planck es importante por otra razón, posiblemente más profunda. Hemos visto que necesitamos concentrar una energía del orden de c/L para alcanzar una resolución de distancias de orden L. Pues bien, la energía necesaria para medir la estructura del espaciotiempo con una precisión del orden de la escala de Planck es tal, que en esa región se formaría un agujero negro microscópico con un radio de Schwarzschild del mismo orden de magnitud. Esto significa que las fluctuaciones cuánticas que cambian la estructura geométrica e incluso topológica del espaciotiempo, tales como agujeros negros microscópicos, son tan importantes como los gravitones cuando alcanzamos la escala de Planck. Esta es la vieja idea de Wheeler, que habló de la estructura «espumosa» del espaciotiempo cuántico. Por otra parte, que las fluctuaciones cuánticas puramente gravitacionales adquieran la misma magnitud que las fluctuaciones cuánticas descritas por el modelo estándar también sugiere que todas las interacciones de la naturaleza están unificadas a distancias del orden de la escala de Planck. Un intento de utilizar un microscopio cuántico para mejorar la precisión espacial más allá de la longitud de Planck requeriría un aumento de la energía disponible. Como los agujeros negros crecen en tamaño al aumentar su energía, la consecuencia sería la formación de un agujero negro mayor que la longitud de Planck, con lo que no se logra mejorar la precisión. Así pues, resulta que la posibilidad de producir agujeros negros como fluctuaciones cuánticas pone un límite operativo al funcionamiento del «microscopio de Heisenberg»: existiría una distancia efectiva mínima. Por esta razón, los físicos creen en su mayoría que la construcción de una teoría cuántica de la
1er Trimestre 2011
gravitación requerirá una revolución de características similares a las revoluciones relativista y cuántica, en el sentido de que introducirá un nuevo límite en la naturaleza, ahora en la escala de distancias. El carácter central de los agujeros negros cuánticos en los argumentos anteriores plantea la cuestión de si podemos encontrar pistas importantes sobre gravitación cuántica en el estudio de los agujeros negros macroscópicos (los que están bien descritos clásicamente por la relatividad general). Esta estrategia ya funcionó históricamente en el descubrimiento de la propia mecánica cuántica. En aquella ocasión, aunque se disponía de una buena descripción clásica de la radiación electromagnética (la teoría de Maxwell), el estudio por parte de Planck de sus propiedades termodinámicas condujo a los primeros ejemplos de comportamiento cuántico. La aplicación de la mecánica cuántica a un agujero negro macroscópico produce resultados sorprendentes. Debido al carácter unidireccional del horizonte de sucesos (se puede entrar pero no salir) resulta que un par partícula-antipartícula creado espontáneamente por una fluctuación cuántica puede perder uno de los componentes detrás del horizonte, alterándose el balance de las fluctuaciones cuánticas en sus proximidades. Como demostró Stephen Hawking en su famoso trabajo de 1974, el efecto neto de este proceso es una radiación emitida por el agujero negro. Esta radiación está alimentada por la energía del campo gravitacional y tiene una temperatura característica, llamada temperatura de Hawking, que es inversamente proporcional a la masa del agujero negro. Aplicando entonces argumentos generales de termodinámica, parecidos a los usados por Planck hace un siglo en el caso de la radiación electromagnética, podemos deducir el número de estados microscópicos que debería albergar el agujero negro para poder radiar con esa temperatura. El resultado es que el agujero negro se puede describir como un sistema cuántico con una unidad de información por cada unidad de área del horizonte cuando esta se mide en unidades de Planck. Una conclusión que concuerda con deducciones de carácter más heurístico realizadas unos años antes por Jacob Bekenstein, de la Universidad Hebrea de Jerusalén, y corrobora la idea de que la longitud de Planck es una distancia mínima en la gravitación cuántica. HACIA UN NUEVO PARADIGMA
Las consideraciones anteriores son sugestivas pero imprecisas. Para progresar se requiere una teoría de gravitación cuántica, aunque sea de naturaleza aproximada: por ejemplo, un modelo concreto de la estructura interna del gravitón a la escala de Planck. De todas las ideas propuestas hasta la fecha, la teoría de cuerdas representa el marco teórico más prometedor en esa línea. Desarrollada inicialmente en torno a 1970 como una teoría imperfecta de las fuerzas nucleares, languideció durante una década para emerger en 1984 como el marco general para construir teorías de la gravitación cuántica que incorporen, además, la unificación de todas las interacciones incluidas en el modelo estándar. El punto de partida de la teoría de cuerdas es una hipótesis aparentemente modesta y un tanto arbitraria. La idea es que las partículas que denominamos «elementales» son en realidad objetos extensos en una dimensión; cuerdas diminutas cuya dinámica está especificada por modos de vibración. Cada modo de vibración independiente representaría un tipo diferente de partícula del modelo estándar; todos serían manifestaciones del mis-
InvestigacionyCiencia.es
L
Según el principio de Heisenberg, una energía E permite alcanzar una precisión L = c/E (rojo). Por el contrario, si toda la energía colapsa en un agujero negro, su tamaño aproximado, L = L p2E/c, crece linealmente con la energía (verde). Combinando ambos efectos se obtiene la modificación planckiana del principio de Heisenberg, incluyendo la distancia mínima Lp = G/c3.
Lp
Ep
E
mo objeto básico, la cuerda fundamental. De ser cierta, esta hipótesis unificaría todas las partículas subatómicas. Por ahora se ha visto que conduce a una estructura matemática de riqueza insospechada, cuya exploración por parte de físicos y matemáticos aún pertenece en gran medida a las generaciones futuras. Desde el punto de vista físico, las teorías de cuerdas tienen propiedades bastante sorprendentes. Hay dos clases básicas de cuerdas, según sean cerradas sobre sí mismas, a modo de anillos, o abiertas, con dos extremos libres. Las cuerdas cerradas siempre tienen un modo de vibración que se puede identificar con el gravitón, mientras que las cuerdas abiertas siempre tienen un fotón. El resultado es que las cuerdas «predicen» la existencia de gravitación en el sector cerrado, y de interacciones de tipo gauge (como la interacción electromagnética), en el sector abierto. Por otra parte, al ser objetos extendidos sobre una distancia del orden de la longitud de Planck, las cuerdas interaccionan con «suavidad» a distancias muy cortas. Por tanto, las cuerdas cerradas proporcionan un modelo (el único conocido) de la estructura compuesta del gravitón a la escala de Planck, y
Lp
En teoría cuántica de campos las interacciones son «duras», en el sentido de que las partículas se crean o aniquilan instantáneamente en un punto del espaciotiempo. Estas interacciones duras son matemáticamente inconsistentes para el caso de los gravitones. En teoría de cuerdas, por el contrario, las interacciones se distribuyen en una región finita del espaciotiempo, con una extensión del orden de la longitud de Planck.
UĄÿČûĈĉo ùċħĄĊÿùo 49
Tres ejemplos de D-branas: de dimensión cero, uno y dos. Las D-branas son objetos singulares en el espacio, en los cuales están confinados los extremos de las cuerdas abiertas. Todas las propiedades físicas de las D-branas se definen en términos del estado de vibración de sus cuerdas abiertas.
son la versión microscópica de las excitaciones del propio espaciotiempo. Además de la gravitación y las interacciones del modelo estándar, la teoría de cuerdas tiene otras predicciones genéricas que añaden una gran complicación a su estudio. Una es la existencia de más de cuatro dimensiones espaciotemporales, hasta un total de once como máximo. Las dimensiones extra serían invisibles por estar curvadas en pequeños círculos, esferas u otras formas geométricas más intrincadas. La gran variedad de estructuras microscópicas que pueden adoptar las dimensiones adicionales son útiles a la hora de reproducir todas las estructuras visibles en el modelo estándar, pero por otra parte dejan abiertas muchas posibilidades que, stricto sensu, restan predictibilidad a la teoría. Otra predicción concreta de las teorías de cuerdas es la aparición de nuevas simetrías en la naturaleza. La más importante es la llamada supersimetría, que en cierto sentido unifica las partículas asociadas a las fuerzas, como el fotón y el gravitón, con las partículas asociadas a la materia, como el electrón, los quarks y los neutrinos. No obstante, esta simetría solo se puede realizar de forma aproximada en la naturaleza, ya que no es una propiedad del modelo estándar. Una de las perspectivas experimentales más excitantes para la nueva generación de aceleradores de partículas, como el LHC del CERN, es la posibilidad de descubrir dimensiones adicionales del espaciotiempo, supersimetría o ambas, características de la teoría de cuerdas. Si bien esto no supondría una verificación inmediata de la teoría de cuerdas, se trataría de un fuerte indicio experimental en esta dirección. Uno de los descubrimientos más importantes en teoría de cuerdas, debido a Joseph Polchinski, del Instituto de Física Teórica de California en Santa Bárbara, fue la observación de
que las cuerdas mismas no son los únicos objetos fundamentales de la teoría. Habíamos visto que las cuerdas aparecen en dos modalidades: las cerradas, asociadas a la gravitación, y las abiertas, asociadas a las interacciones de gauge (como el electromagnetismo). Los extremos de estas cuerdas abiertas pueden propagarse libremente por todo el espacio, pero también pueden estar localizados en regiones singulares con dimensiones variables. Estas regiones singulares a las cuales las cuerdas abiertas estarían enganchadas se conocen como D-branas en la jerga técnica. Literalmente, son como «impurezas» o defectos estructurales del espaciotiempo, cuyas propiedades dinámicas están caracterizadas por el estado de vibración de su «cabellera» de cuerdas abiertas. Las D-branas pueden ser objetos puntuales, y hablamos entonces de D-partículas, o tener una dimensión extendida (D-cuerdas), dos dimensiones extendidas (D-membranas), etc. Si las cuerdas cerradas representan fluctuaciones del espaciotiempo, se puede decir que las cuerdas abiertas representan las fluctuaciones de las D-branas. Así pues, el espectro de objetos «elementales» en teoría de cuerdas contiene no solo las cuerdas mismas (cuyas vibraciones más ligeras darían las partículas del modelo estándar), sino también las impurezas en la estructura del espaciotiempo denominadas D-branas. Por último, cuando las cuerdas o las Dbranas alcanzan un alto grado de excitación sobre su estado de mínima energía, se convierten en agujeros negros. La transición entre D-branas y agujeros negros se entiende bastante bien a nivel cuantitativo. En un importante cálculo, Andrew Strominger y Cumrum Vafa, de la Universidad de Harvard, demostraron que el número de estados de un agujero negro (según la predicción de Bekenstein y Hawking) coincide, en el punto de transición, con el de un sistema adecuado de D-branas. Hoy por hoy, el cálculo solo se puede realizar con detalle
M Á S Q U E C U E R DA S
El espectro de estados de la teoría de cuerdas La escala de masas de las partículas del modelo estándar se extiende en torno a la masa del bosón W, unas 80 veces la del protón; el espectro va desde las partículas sin masa, como el fotón y el gravitón, hasta el quark cima, unas 170 veces más pesado que el protón. Todas estas partículas aparecerían como los modos más bajos de vibración de las cuerdas. A una escala intermedia, Ms, encontramos los modos de vibración superiores de las cuerdas; más arriba, las D-branas. Por último, por encima de la masa de Planck, Mp=c/G, las excitaciones típicas generan agujeros negros. En la mayoría de los modelos, Ms y Mp son similares, del orden de 1019 veces la masa del protón. Sin embargo, es posible construir modelos en los que estas escalas de masa toman valores muy bajos, de solo unas 1000 veces la masa del protón.
50 Tûăaĉ 63
1er Trimestre 2011
para un cierto tipo de agujeros negros con mucha simetría, para los cuales se conoce bien su estructura microscópica en términos de cuerdas y D-branas. La generalización del cálculo de Strominger y Vafa a cualquier tipo de agujero negro sigue siendo un problema abierto, pero el éxito en casos particulares es matemáticamente tan intrincado y preciso, que deja pocas dudas sobre la validez del modelo en los casos en que es aplicable. GEOMETRÍA NO CONMUTATIVA
Tenemos así una imagen globalmente coherente en la que el modelo estándar y los agujeros negros cuánticos son dos límites extremos de una estructura microscópica más rica. Incorpora además los ingredientes necesarios para la construcción de una teoría cuántica del espaciotiempo, con una distancia física mínima del orden de la longitud de Planck. Esta situación nos recuerda los resultados de la vieja teoría cuántica de principios de los años veinte, basada en conceptos heurísticos tales como el de la dualidad onda-corpúsculo. Esta dualidad, o la más general complementariedad de Bohr, adquieren un contenido cuantitativo con las relaciones de indeterminación de Heisenberg. Sin embargo, a un nivel más profundo sabemos que estas relaciones de indeterminación son una consecuencia de la estructura matemática subyacente a la mecánica cuántica. En aquella ocasión el principio básico resultó ser la no conmutatividad entre posiciones y velocidades. Siguiendo con nuestra analogía, sería conveniente abstraer un formalismo más fundamental a partir de la teoría de cuerdas y branas, en el cual la distancia mínima de Planck estuviera incorporada de manera intrínseca. En otras palabras, buscamos un principio de no conmutatividad puramente espaciotemporal. Un ejemplo del tipo de estructura matemática necesaria fue descubierto por Alain Connes en los años ochenta. Este matemático francés inventó una geometría cuántica en la cual las coordenadas espaciales son matrices que no conmutan entre sí, en analogía exacta con las posiciones y velocidades de un electrón. Entonces se puede copiar la demostración de los libros de texto de las relaciones de Heisenberg y obtener un conjunto de relaciones análogas entre las coordenadas espaciales. Por ejemplo, para un plano no conmutativo con coordenadas X e Y, se verifica que las precisiones respectivas en la medida de las posiciones satisfacen X Y Lc2, donde Lc2 representa el área mínima físicamente realizable. En el ámbito de la física, sugerencias en esta línea se remontan al trabajo de Snyder en 1949, y más recientemente, en 1983, al de Antonio González Arroyo, de la Universidad Autónoma de Madrid, y Chris Korthals-Altes del CNRS en Marsella. El principal problema en la aplicación literal de estas ideas a la teoría de cuerdas es la dificultad de obtener efectos gravitacionales en el formalismo de Connes. Es decir, no parece haber una relación natural entre Lc y la longitud de Planck, Lp. Las cuerdas abiertas poseen propiedades matemáticas que recuerdan la geometría de Connes, como había observado ya en 1986 Edward Witten, del Instituto de Estudios Avanzados de Princeton. Con el advenimiento de las D-branas, el propio Witten resaltó este hecho de forma más explícita. La posición de una D-brana en el espacio, como el resto de sus propiedades físicas, depende del estado de vibración de las cuerdas abiertas atrapadas en ella. Si tenemos dos D-branas, digamos A y B, colocadas a una cierta distancia, sus posiciones dependerán de las cuerdas abiertas enganchadas en cada una de ellas, pero también de las cuerdas abiertas que tienen un extremo en A y el otro extremo en B. En otras palabras, la posición de una D-bra-
InvestigacionyCiencia.es
I N T E R AC C I O N E S E N T R E C U E R DA S
La no conmutatividad de las cuerdas
Los estados de cuerdas abiertas son, de forma natural, no conmutativos. En (a) consideramos el producto de dos cuerdas abiertas y para producir una cuerda con estado * . Este mismo proceso se puede escribir intercambiando el orden de y , a costa de «retorcer» la superficie generada por las cuerdas en su movimiento. Claramente, la superficie resultante difiere del producto de y para dar * . En (b), dos D-partículas A y B con cuatro tipos de cuerdas abiertas: AA, BB, AB, BA. La posición de las D-branas en cada dirección del espacio depende de cuatro números, que caracterizan el estado de las cuatro clases de cuerda abierta. Estos cuatro números forman una matriz, el objeto matemático esencialmente no conmutativo. La matriz se vuelve conmutativa cuando las cuerdas AB y BA se anulan. En este caso las posiciones de A y B se pueden definir como independientes entre sí, sin interferencia cuántica.
a
=/
=
b A
B
na no se puede definir individualmente, sino que requiere el conocimiento del estado de cualesquiera D-branas que existan en sus inmediaciones. Matemáticamente, se puede demostrar que estas propiedades convierten la posición de una D-brana en una matriz, del mismo tipo que las matrices consideradas por Heisenberg en su formulación de la mecánica cuántica. Basándose en estas ideas, Tom Banks, de la Universidad de Rutgers, Willy Fischler, de la Universidad de Texas en Austin, y Stephen Shenker y Leonard Susskind, de Stanford, propusieron en 1996 que las D-branas son los objetos más fundamentales. Más exactamente, presentaron la hipótesis de que el espaciotiempo mismo está construido como un estado colectivo de un número infinito de D-branas. El espaciotiempo adquiere así una naturaleza granular a la escala de Planck; una especie de retículo de D-branas trenzadas mediante las cuerdas abiertas. Las D-branas pasan de ser defectos estructurales en el continuo espaciotemporal a representar los propios ladrillos básicos del espaciotiempo. En la práctica, esto equivale a derivar todos los objetos de la teoría de cuerdas, incluyendo las cuerdas cerradas y los agujeros negros, a partir de las variables matriciales de las cuerdas abiertas. El estudio intensivo de la así llamada «teoría de matrices BFSS» confirmó en parte estas expectativas para el caso del espaciotiempo más simétrico posible: el de Minkowski en once dimensiones.
UĄÿČûĈĉo ùċħĄĊÿùo 51
MODELO SIMPLE
Geometría no conmutativa de Connes
Se puede reproducir la geometría no conmutativa de Connes mediante un modelo intuitivo, que de hecho aparece en la derivación a partir de la teoría de D-branas. Consideremos una cuerda abierta rígida que se comporta como un dipolo eléctrico, con cargas opuestas en los extremos, y que se propaga como en la figura, inmersa en un campo magnético de magnitud B = 2 c/2Lc2. Si el dipolo se mueve con impulso P en la dirección X, la fuerza magnética tiende a separar las cargas, equilibrando la atracción eléctrica. La longitud de equilibrio es Y = 2Lc2P/, de donde se deduce que las indeterminaciones respectivas satisfacen Y = 2Lc2P/. Combinando esta relación con la desigualdad ordinaria de Heisenberg, XP /2, obtenemos la desigualdad de Connes: XY = Lc2. Por tanto, la geometría medida con experimentos que involucren solo cuerdas abiertas rígidas es el plano no conmutativo de Connes. Para obtenerlo en la teoría BFSS basta encontrar una solución en la que las cuerdas abiertas sean efectivamente rígidas. B Y
+ P – X
Dadas estas consideraciones, no resulta sorprendente que la teoría BFSS contenga la geometría de Connes como un caso particular; poco más tarde lo demostraría el propio Alain Connes, con la colaboración de Michael Douglas, de la Universidad de Rutgers, y Albert Schwarz, de la Universidad de California en Davis. No obstante, los principales problemas de la teoría de matrices BFSS son sus limitaciones a la hora de reproducir fenómenos gravitacionales más generales. En otras palabras, no es posible obtener un espacio con curvatura en el límite de grandes distancias, sino solo variantes del espaciotiempo de Minkowski. Esta situación mejoró considerablemente a finales de 1997 con el trabajo fundamental de Juan Maldacena, entonces en Harvard y hoy en el Instituto de Estudios Avanzados de Princeton. Considerando una configuración de D-branas diferente de la discutida por Banks, Fischler, Shenker y Susskind, generó un espaciotiempo con curvatura. Esencialmente, Maldacena estudió el mismo tipo de configuraciones de D-branas que habían utilizado antes Strominger y Vafa en su cálculo del número de estados de los agujeros negros. Por esa razón, los espaciotiempos así generados son geométricamente equivalentes a la región cercana al horizonte de ciertos agujeros negros. El sistema está descrito por las excitaciones de las cuerdas abiertas, que constituyen una teoría de matrices (técnicamente, una versión supersimétrica de las teorías de gauge del modelo estándar). Cuando el número de D-branas es grande, el sistema se describe mejor como un espaciotiempo curvado, donde reemplazamos las
52 Tûăaĉ 63
D-branas y sus cuerdas abiertas asociadas por una cierta geometría semejante a un agujero negro. La conjetura de Maldacena consiste en la equivalencia exacta de ambas descripciones. Las excitaciones de cuerdas cerradas en el agujero negro tienen la misma información física que el conjunto de cuerdas abiertas enganchadas en las D-branas. La propuesta de Maldacena fue mejorada y generalizada por Edward Witten, e independientemente por Stephen Gubser, Alexander Polyakov e Igor Klebanov, de la Universidad de Princeton. El resultado es un conjunto de reglas, bajo el nombre genérico de «dualidad AdS/CFT», que dan una definición exacta de la gravedad cuántica para cierto tipo de espaciotiempos con curvatura en términos de las variables matriciales de sistemas apropiados de D-branas. Se puede decir que la esencia de la dualidad AdS/CFT y del modelo BFSS es la «deconstrucción» de la geometría en términos del álgebra de las matrices. La configuración microscópica de un sistema infinito de D-branas codifica la estructura del espaciotiempo que aparece a grandes distancias como el continuo utilizado por Einstein en su teoría general de la relatividad. Aunque estos modelos han revolucionado nuestras ideas sobre la naturaleza del espaciotiempo, por el momento carecemos de una teoría general de la «deconstrucción geométrica». La elaboración de modelos cuánticos del espaciotiempo constituye un arte, en el sentido de que cada ejemplo concreto requiere trucos matemáticos especiales. Hasta el momento, solo algunas geometrías con suficiente cantidad de supersimetría han sido codificadas con éxito. Por esta razón, sería conveniente extraer el principio básico que hace posibles estas construcciones, con objeto de encontrar ejemplos más realistas. EL PRINCIPIO HOLOGRÁFICO
Un candidato a ocupar el papel de principio rector de la nueva geometría cuántica podría ser el principio holográfico, formulado en 1993 por Gerard ‘t Hooft, de la Universidad de Utrecht, y sistematizado por Leonard Susskind, de la Universidad de Stanford, y Raphael Bousso, de la Universidad de Berkeley. El principio holográfico se basa en la fórmula de Bekenstein y Hawking para la capacidad de información que puede almacenar un agujero negro [véase «La información en el universo holográfico», de Jacob D. Bekenstein; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, octubre de 2003]. Según aquellos autores, los estados cuánticos se pueden asociar a los grados de libertad sobre el área del horizonte, con una densidad de una unidad de información por cada área planckiana. Es significativo que la capacidad de información crezca con el área del agujero negro, y no con su volumen. Esta conclusión choca frontalmente con las ideas basadas en una teoría cuántica de campos, tal como el modelo estándar, formulada en el espaciotiempo ordinario. En una teoría cuántica de campos los estados físicos se pueden caracterizar por las configuraciones de las partículas. Como podemos colocar una partícula en cada punto del espacio (con una precisión dada), la cantidad máxima de información crecería con el volumen del espacio. Sin embargo, un momento de reflexión revela que en muchos de estos estados las partículas estarían tan densamente empaquetadas, que colapsarían gravitacionalmente para formar un agujero negro. Una vez que hemos formado el agujero negro, la capacidad de información crece con el área y no con el volumen (o, dicho de otra manera, como la información equivale, salvo una constante, al logaritmo del número de estados que puede adoptar el sistema, el número de estados crece con la exponencial del área, en vez de con la del volumen).
1er Trimestre 2011
Otros títulos de la colección El principio holográfico toma esta observación y la eleva a la categoría de propiedad fundamental de cualquier teoría de gravitación cuántica. De acuerdo con este principio, la formulación matemática de una teoría de gravitación cuántica debería hacer uso de variables que residen en la superficie de una región dada, no en su interior. La interpretación radical diría que las tres dimensiones del espacio son una ilusión basada en nuestra experiencia con estados «diluidos». Al igual que un holograma codifica una imagen tridimensional en un sistema bidimensional, la formulación básica de la gravitación cuántica tendría como mucho dos dimensiones espaciales macroscópicas. Las dimensiones restantes aparecerían dinámicamente como aproximación de bajas energías. Sin embargo, a energías suficientemente altas, la generación de agujeros negros mediante fluctuaciones cuánticas convertiría el espacio tridimensional en un concepto poco útil para describir los fenómenos. El principio holográfico y el conjunto de ideas relacionadas siguen siendo un proyecto de paradigma, más que una teoría concreta. Sin embargo, su formulación no está sujeta a restricciones tales como la cantidad de supersimetría presente en el espaciotiempo, y solo depende de propiedades muy robustas de la física de agujeros negros. Por esta razón, la mayoría de los físicos teóricos creen que el principio holográfico es una de las piedras angulares del espaciotiempo cuántico. En casos de gran simetría, modelos como AdS/CFT o la teoría matricial de BFSS proporcionan un laboratorio teórico que representa muchas propiedades del principio holográfico en una situación matemáticamente tratable. En cierto modo, el modelo de Maldacena es a la holografía lo que el átomo de hidrógeno a la mecánica cuántica. En el descubrimiento de la mecánica cuántica resultó fundamental disponer de un sistema suficientemente simple como para admitir tratamiento matemático preciso y, a la vez, suficientemente característico como para ilustrar muchas de las propiedades distintivas de la mecánica cuántica. Por desgracia, el paralelismo acaba ahí, ya que el átomo de hidrógeno sí se encuentra en la naturaleza y es accesible a experimentos reales, mientras que la geometría de AdS/CFT no corresponde al mundo real, ni siquiera en un sentido aproximado. Se puede decir que hay un progreso constante hacia la formulación de versiones menos simétricas de la dualidad AdS/ CFT. Sin embargo, aún estamos lejos de encontrar una codificación no conmutativa de un espaciotiempo similar al observado experimentalmente, con sus cuatro dimensiones en expansión cosmológica y su espectro de partículas no supersimétrico, tal como lo describe el modelo estándar. El tiempo dirá si nuestras dificultades son puramente técnicas, o por el contrario serán necesarias ideas cualitativamente nuevas. Entretanto, la próxima generación de aceleradores de partículas, principalmente el colisionador de protones LHC del CERN, puede empezar a desentrañar algunos de los misterios sobre la estructura cuántica del espaciotiempo. Por ejemplo, el descubrimiento experimental de supersimetría aproximada representaría un gran avance en el asentamiento del paradigma aquí esbozado. PA R A S A B ER M Á S
Electrones, neutrinos y quarks. F. J. Ynduráin. Crítica, 2001. Partículas elementales: En busca de las estructuras más pequeñas del universo. G. ‘t Hooft. Crítica, 2001. El universo elegante: Supercuerdas, dimensiones ocultas y la búsqueda de una teoría definitiva. B. Greene. Crítica, 2001. El universo en una cáscara de nuez. S. W. Hawking. Crítica, 2002.
InvestigacionyCiencia.es
TEMAS
TEMAS 62: Alzheimer
TEMAS 61: Conservación de la biodiversidad
TEMAS 60: Física y aplicaciones del láser
TEMAS 59: ¿Qué es un gen?
TEMAS 58: Galileo y su legado
TEMAS 57: El cerebro, hoy
TEMAS 56: Instinto sexual
TEMAS 55: Riesgos naturales
TEMAS 54: Darwin
TEMAS 53: Planetas
TEMAS 52: El origen de la vida
TEMAS 51: El tiempo
Más información en www.investigacionyciencia.es Muntaner, 339, pral., 1ª 08021, Barcelona Tel. 93 414 33 44 - Fax 93 414 54 13
Artículo publicado en Investigación y Ciencia, n.o 384
E S PAC I O T I E M P O C UÁ N T I C O
El universo cuántico autoorganizado Un nuevo enfoque del viejo problema de la gravedad cuántica retorna a lo básico. Representa el espacio y el tiempo mediante bloques que se ordenan por sí mismos Jan Ambjørn, Jerzy Jurkiewicz y Renate Loll
¿C
Ķăo ĉċĈýÿûĈoĄ ûĂ ûĉĆaùÿo ď ûĂ ĊÿûăĆoě ĚCĶăo formaron el regular vacío tetradimensional que sirve de fondo a nuestro mundo físico? ¿Cómo son a las menores distancias? Estas preguntas se encuentran en la frontera última de la ciencia moderna. Impulsan la búsqueda de una teoría de la gravedad cuántica, la largamente buscada unificación de la teoría general de la relatividad de Einstein y la teoría cuántica. Según la teoría de la relatividad, el espaciotiempo puede tomar a escala macroscópica un sinnúmero de formas diferentes. Esa plasticidad la percibimos como una fuerza, a la que llamamos gravedad. En contraste, la teoría cuántica describe las leyes de la física a escalas atómicas y subatómicas e ignora los efectos gravitacionales. Toda teoría de la gravedad cuántica se propone describir la naturaleza del espaciotiempo a las escalas más pequeñas —los vacíos entre las menores partículas elementales conocidas— mediante las leyes cuánticas y, quizás, explicarla en términos de algún tipo de componente fundamental. Suele decirse que la teoría de supercuerdas es la principal aspirante a cubrir algún día esos objetivos, pero aún no ha proporcionado respuesta a ninguna de las acuciantes preguntas con las que empieza este artículo. En cambio, siguiendo su propia lógica interna, se ha internado en estadios cada vez más
complejos, con nuevos y exóticos ingredientes y relaciones entre ellos, y así ha engendrado una desconcertante multiplicidad de resultados posibles. En los últimos años, la colaboración entre los tres autores ha ido gestando una prometedora alternativa a tan transitada autopista de la física teórica. Sigue una receta simple: tómense unos pocos ingredientes muy básicos, ensámblense según los principios cuánticos (no hacen falta cosas extrañas), revuélvase bien, déjese reposar y se tendrá un espaciotiempo cuántico. El proceso es sencillo: un ordenador portátil puede ejecutar una simulación. En otras palabras, si imaginamos el espaciotiempo vacío como una sustancia inmaterial, consistente en un gran número de pequeñas piezas sin estructura, y si a continuación dejamos que estos bloques constituyentes microscópicos interactúen según sencillas reglas dictadas por la gravedad y la teoría cuántica, se ordenarán por sí mismos, espontáneamente, en un conjunto que, en muchos aspectos, se parece al universo observado. Recuerda a la forma en que las moléculas se autoorganizan en sólidos cristalinos o amorfos. El espaciotiempo se parecería, pues, a un simple salteado de verduras más que a una elaborada tarta nupcial. Además, a diferencia de otros enfoques de la gravedad cuántica, nuestra receta es muy robusta. Esa palabra, «robusta», conforme a un uso
EN SÍNTESIS
Desde hace tiempo se ha intentado reconciliar la mecánica cuántica con la teoría de la relatividad general de Einstein. Hasta el momento, existen muy pocos resultados concretos.
54 Tûăaĉ 63
Una forma de abordar el problema consiste en aplicar las leyes conocidas a fragmentos de espaciotiempo. Como resultado, esos pedazos se ordenan por sí mismos, a la manera de moléculas en un cristal.
El espaciotiempo tetradimensional tal y como lo conocemos emerge de manera dinámica a partir de sus «ladrillos» fundamentales. A escalas microscópicas, su naturaleza se muestra fractal.
1er Trimestre 2011
habitual en matemáticas, se refiere a que, cuando variamos los detalles en las simulaciones, el resultado apenas cambia. Tal solidez da motivos para creer que estamos en el buen camino. Si los resultados fueran sensibles a la colocación de cada pieza de ese enorme conjunto, se generaría una cantidad ingente de formas barrocas, cada una de ellas, a priori, con igual probabilidad de producirse, de manera que perderíamos todo poder explicativo de por qué el universo es como es. En física, biología y otros campos de la ciencia no son desconocidos los mecanismos de autoensamblaje y autoorganización de ese estilo. Un hermoso ejemplo son las grandes bandadas de aves, las de estorninos, por ejemplo. Cada pájaro interacciona solo con un pequeño número de aves vecinas; ningún líder les dice qué hacer. Sin embargo, la bandada mantiene su conformación y se mueve como un todo. La bandada posee propiedades colectivas que no son evidentes en el comportamiento de cada ave. A las propiedades colectivas de esa naturaleza se las llama «emergentes».
JEAN-FRANCOIS PODEVIN
UNA BREVE HISTORIA DE LA GRAVEDAD CUÁNTICA
Los intentos pasados de explicar la estructura cuántica del espaciotiempo mediante propiedades emergentes solo tuvieron un éxito limitado. Se enraizaban en la gravedad cuántica euclídea, programa de investigación iniciado a finales de los años setenta del siglo pasado y popularizado en el libro de Stephen Hawking Una breve historia del tiempo. Se basa en un principio fundamental de la mecánica cuántica: la superposición. Cualquier objeto, ya sea clásico o cuántico, se halla en un cierto estado, que caracteriza, por ejemplo, su posición y su velocidad. Ahora bien, mientras que el estado de un objeto clásico puede describirse con un conjunto de números, el estado de un objeto cuántico es mucho más rico. Constituye la suma, o superposición, de todos los estados clásicos posibles. Una bola de billar clásica se mueve a lo largo de una trayectoria única, con una posición y velocidad precisas en cada instante. No podríamos predicar lo mismo del movimiento de un electrón, movimiento que viene descrito por las leyes cuánticas; lo que implica que puede existir simultáneamente en una amplia gama de posiciones y velocidades. Cuando un electrón se desplaza del punto A al punto B en ausencia de fuerzas externas, no se limita a la línea recta entre A y B, sino que abarca todos los caminos disponibles a la vez. Esta imagen cualitativa, que conjunta todas las trayectorias posibles de los electrones, se traduce en la precisa prescripción matemática de la superposición cuántica, que formuló Richard Feynman, y que consiste en una media ponderada de todas esas distintas posibilidades. Con esa prescripción se puede calcular la probabilidad de encontrar el electrón en un intervalo cualquiera de posiciones y velocidades, aunque caiga fuera del camino recto que esperaríamos si los electrones obedecieran las leyes de la mecánica clásica. El comportamiento de las partículas resulta mecanicocuántico por las desviaciones de una única trayectoria definida, desviaciones que se denominan fluctuaciones cuánticas. Cuanto menor sea el sistema físico que se considera, mayor importancia adquieren las fluctuaciones cuánticas. La gravedad cuántica euclídea aplica el principio de superposición a todo el universo. En este caso, la superposición no consiste en diferentes trayectorias de partículas, sino en diferentes maneras en que el universo entero podría evolucionar en el tiempo; en particular, las formas posibles del espaciotiempo. Para abordar el problema, suelen tomarse en cuenta solo la forma y el tamaño generales del espaciotiempo, en lugar de cada
InvestigacionyCiencia.es
UĄÿČûĈĉo ùċħĄĊÿùo 55
ASPIRANTES
Teorías de la gravedad cuántica
TEORÍA DE CUERDAS Es el enfoque preferido por la mayoría de los físicos teóricos. No solo es una teoría de la gravedad cuántica, sino también de toda la materia y todas las fuerzas. Se basa en el supuesto de que las partículas (incluida la hipotética que transmite la gravedad) son cuerdas vibrantes.
GRAVEDAD CUÁNTICA DE BUCLES Es la principal alternativa a la teoría de las cuerdas. Recurre a una nueva técnica para aplicar las reglas cuánticas a la teoría general de la relatividad de Einstein. El espacio se divide en «átomos» de volumen.
GRAVEDAD CUÁNTICA EUCLÍDEA Stephen Hawking dio fama a este enfoque. Supone que el espaciotiempo es el promedio cuántico de todas sus conformaciones posibles. El tiempo desempeña el mismo papel que el espacio.
Los pequeños bloques constituyentes carecen de significado físico directo y propio. Si pudiéramos examinar el espaciotiempo real con un microscopio ultrapotente, no veríamos pequeños triángulos. No son más que aproximaciones. La única información físicamente relevante proviene del comportamiento colectivo de los bloques constituyentes; se obtiene imaginando que se reducen a un tamaño nulo. En este límite, nada depende de que los bloques fueran triangulares, cúbicos, pentagonales o una mezcla cualquiera de figuras. La insensibilidad a una variedad de detalles de pequeña escala recibe el nombre de «universalidad». Se trata de un fenómeno harto conocido en mecánica estadística, o estudio del movimiento molecular en gases y líquidos. Estas sustancias se comportan de manera muy parecida sea cual sea su composición detallada. La universalidad, asociada con las propiedades de sistemas de muchas partes que interactúan, se manifiesta a una escala mucho mayor que la de los constituyentes individuales. En la analogía de la bandada de estorninos, el color, tamaño, envergadura y edad de los pájaros integrantes carecen de importancia a la hora de determinar el vuelo global de la bandada. Solo unos pocos detalles microscópicos se filtran a escala macroscópica. UN UNIVERSO QUE SE ARRUGA Y ENCOGE
Con esas simulaciones por ordenador, los teóricos de la gravedad cuántica empezaron a explorar los efectos de superponer formas del espaciotiempo que la relatividad clásica no puede manejar; en concreto, las que están muy curvadas en muy pequeñas escalas de distancia. Ese «régimen no perturbativo» es el que más interesa a los físicos, pero resulta inaccesible para los habituales cálculos de lápiz y papel. Por desgracia, las simulaciones pusieron de manifiesto que a la gravedad cuántica euclídea le faltaba un ingrediente importante en alguna parte. Encontraron que las superposiciones no perturbativas de universos tetradimensionales son intrínsecamente inestables. Las fluctuaciones cuánticas de la curvatura a cortas escalas, que caracterizan los diferentes universos superpuestos que contribuyen al promedio, no se cancelan entre sí para produ-
TRIANGULACIONES DINÁMICAS CAUSALES
una de las contorsiones concebibles que podría albergar [véase «Cosmología cuántica y creación del universo», por Jonathan J. Halliwell; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, febrero de 1992]. La gravedad cuántica euclídea dio un gran salto técnico en los años ochenta y noventa, al poderse efectuar ya por entonces potentes simulaciones computarizadas. En esos modelos informáticos, las geometrías curvas del espaciotiempo se representan por medio de diminutos bloques constituyentes que, por conveniencia, son triangulares. Las mallas triangulares se aproximan muy bien a las superficies curvas; por eso es frecuente que se las emplee en las animaciones por ordenador. En el caso del espaciotiempo, el bloque constituyente elemental es una generalización tetradimensional de los triángulos, el cuadrisímplex. Tal y como pegando triángulos por sus bordes se crea una superficie curva bidimensional, uniendo varios cuadrisímplex por sus «caras» (que son en realidad tetraedros tridimensionales) se crea un espaciotiempo tetradimensional.
56 Tûăaĉ 63
El espacio, la frontera final: A pesar de que suele concebirse el espacio como un mero vacío, lo mismo aquel que el tiempo tienen una estructura invisible que guía nuestro movimiento (a la manera en que las ondulaciones de la pendiente nevada guían al esquiador). Percibimos esta estructura como fuerza de gravedad. Explicar la forma detallada del espaciotiempo es el principal objetivo de una teoría de la gravedad cuántica.
1er Trimestre 2011
JEAN-FRANCOIS PODEVIN (arriba); KARL WEATHERLY CORBIS (esquiador)
Este enfoque, tema de nuestro artículo, constituye una versión moderna del enfoque euclídeo. Construye una aproximación del espacio con un mosaico de triángulos que incorporan una distinción entre espacio y tiempo. A pequeñas escalas, el espaciotiempo toma una forma fractal.
GEOMETRÍA MICROSCÓPICA
Un mosaico de triángulos Para determinar de qué modo el espacio se esculpe a sí mismo, primero se necesita describir su forma. Para ello se utilizan triángulos y sus análogos de más dimensiones. Un mosaico de esas piezas puede aproximarse a una forma curvada. La curvatura en un punto se refleja en el ángulo total subtendido por los triángulos que lo rodean. Para una superficie plana, el ángulo es exactamente 360 grados; para superficies curvas, puede ser menos o más.
Forma
Aproximación de la forma por medio de triángulos equiláteros
Vista de los triángulos cuando se aplanan
Plano
Esfera
JEAN-FRANCOIS PODEVIN (recuadro); IMAGESHOP CORBIS (dominó)
Silla de montar
cir, a grandes escalas, un universo liso, clásico. Muy al contrario, se reforzaban mutuamente, de modo que el espacio se arrugaba hasta convertirse en una pequeña bola con un número infinito de dimensiones. En un espacio tal, media solo una distancia sutil entre cualquier par arbitrario de puntos, aun cuando el espacio tenga un volumen enorme. En ciertos casos, la conformación del espacio se va al otro extremo: el espacio se vuelve máximamente delgado y extenso, como un polímero químico muy ramificado. Ni lo uno ni lo otro se asemeja, ni de lejos, a nuestro universo. Antes de reexaminar las hipótesis que llevaron a este callejón sin salida, atendamos a un aspecto curioso de este resultado. Los componentes tienen cuatro dimensiones, aunque colectivamente dan lugar a un espacio con un número infinito de dimensiones (el universo arrugado) o con solo dos (el universo polimérico). Una vez que el genio salió de la botella y se permitió que hubiese grandes fluctuaciones cuánticas del espacio vacío, se tornó mudable hasta el mismo concepto básico de dimensión. No se habría podido prever esta conclusión a partir de la teoría de la gravedad clásica, donde el número de dimensiones siempre viene dado de antemano. Los aficionados a la ciencia ficción podrían sentirse contrariados con una de las consecuencias. Hay novelas que hacen uso de los «agujeros de gusano», delgadas asas ligadas al universo que proporcionan un acceso directo entre regiones que, si no
InvestigacionyCiencia.es
los hubiera, estarían muy distantes. Los agujeros de gusano resultan apasionantes porque prometen viajes por el tiempo y la transmisión de señales más rápida que la luz. Si bien fenómenos de ese tipo no se han observado nunca, se ha conjeturado que los agujeros de gusano quizás encontrasen justificación dentro de la todavía desconocida teoría de la gravedad cuántica. En vista de los resultados negativos de las simulaciones por ordenador de la gravedad cuántica euclídea, la viabilidad de los agujeros de gusano parece ahora sumamente improbable. Los agujeros de gusano surgen con tan enorme variedad que tenderían a dominar la superposición y la desestabilizarían, de manera que el universo cuántico nunca crecería más allá del tamaño de un pequeño vecindario, aunque muy interconectado. ¿Dónde está el fallo? En nuestra búsqueda de lagunas y cabos sueltos en el enfoque euclídeo, dimos por fin con la idea fundamental, el ingrediente necesario para que el salteado salga bien: el universo debe incluir lo que los físicos llamamos causalidad; es decir, el espaciotiempo vacío ha de tener una estructura que permita distinguir entre causa y efecto. Es una parte integral de las teorías clásicas de la relatividad especial y general. La gravedad cuántica euclídea no se basa en una noción de causalidad. El término «euclídeo» indica que el espacio y el tiempo reciben el mismo tratamiento. Los universos que entran en la superposición euclídea tienen cuatro direcciones espaciales, en lugar de una temporal y tres espaciales. Debido a que los universos euclídeos carecen de una noción de tiempo, se ven privados de una estructura que disponga los acontecimientos en un orden específico; esos universos no tienen las palabras «causa» o «efecto» en su vocabulario. Hawking y otros que siguieron este enfoque habían dicho que «el tiempo es imaginario», tanto en un sentido matemático como en el sentido coloquial. Su esperanza era que la causalidad emergería como propiedad a gran escala de fluctuaciones cuánticas microscópicas y desprovistas de estructura causal. Pero las simulaciones por ordenador desvanecieron esa esperanza. En lugar de descartar la causalidad al ensamblar los universos individuales y esperar que reaparezca gracias a la sabiduría colectiva de la superposición, decidimos incorporar la estructura causal en una fase mucho más temprana. En nuestro método de las «triangulaciones dinámicas causales», así se le denomina, asignamos primero a cada símplex una flecha del tiempo que apunta desde el pasado hacia el futuro. Luego, hacemos cumplir las normas del pegado causal: dos símplex se deben pegar manteniendo sus flechas apuntando en la misma dirección. Los símplex deben compartir una noción de tiempo, que se de-
¿Qué es la causalidad?: La causalidad es el principio que establece que los acontecimientos ocurren en una secuencia temporal específica de causa y efecto. No ocurren, pues, en un desordenado azar. En el enfoque con el que los autores abordan la gravedad cuántica, la distinción entre causa y efecto es una propiedad fundamental de la naturaleza, no una propiedad deducida.
UĄÿČûĈĉo ùċħĄĊÿùo 57
MUNDOS POSIBLES
Promediando El espaciotiempo puede tomar un número ingente de formas posibles. De acuerdo con la teoría cuántica, la forma que con mayor probabilidad observaremos es una superposición, o promedio ponderado, de todas esas posibilidades. Cuando se construyen formas con triángulos, se pondera cada forma dependiendo del grado de exactitud con que se pegan los triángulos para engendrarla. Los autores han descubierto que los triángulos deben seguir ciertas normas para que el promedio se ajuste a lo que observamos. En particular, los p p triángulos deben p portar incorporada una flecha del tiempo.
Superposición rposición de formas
+ +
+ +
+
+
+
+
Dos posibles reglas de pegado Todo vale Cuando se toman todas las formas posibles de organizar triángulos —una total libertad—, el resultado es un compacto ovillo con un número infinito de dimensiones.
CORRECTO
sarrolla de manera constante en la dirección de esas flechas y nunca se detiene ni vuelve atrás. El espacio conserva su forma general a medida que el tiempo avanza; no puede romperse en pedazos desconectados o crear agujeros de gusano. Tras formular esta estrategia en 1998, demostramos con modelos muy simplificados que las reglas del pegado causal dan lugar a una forma a gran escala diferente de la que genera la gravedad cuántica euclídea. Resultaba alentador, pero todavía no demostraba que esas reglas bastasen para estabilizar un universo de cuatro dimensiones. Por eso, estábamos en vilo cuando nuestro ordenador se disponía, en 2004, a arrojar los primeros
58 Tûăaĉ 63
cálculos dee una gran superposición causal de cuadrisímplex. adrisímplex. ¿Se comportaría ese espaciotiempo a grandes distancias como un objeto de cuatro dimensiones extenso y no como una bola arrugada o un polímero? Imagínese nuestro júbilo cuando el número de dimensiones resultó ser cuatro (más precisamente, 4,02 0,10). Era la primera vez que se deducía el número observado de dimensiones a partir de primeros principios. Hasta el día de hoy, añadir la causalidad en los modelos de gravedad cuántica es la única cura conocida de las inestabilidades de las geometrías de espaciotiempo superpuestas.
1er Trimestre 2011
JEAN-FRANCOIS PODEVIN
Restricción por el principio de causalidad Cuando se añade la regla de que los triángulos adyacentes deben tener una noción de tiempo congruente —a fin de que causa y efecto se distingan de forma inequívoca—, el resultado es un espaciotiempo tetradimensional que se parece sorprendentemente a nuestro INCORRECTO universo.
DEFINICIONES DE DIMENSIÓN
Una nueva dimensión del espacio En la vida cotidiana, el número de dimensiones se refiere al número mínimo de mediciones necesarias para precisar la posición de un objeto. Así, la latitud, la longitud y la altitud. Va implícita en esta definición la lisura del espacio, que sigue las leyes de la física clásica. Pero ¿qué sucede si el comportamiento del espacio no se ajusta a lo esperado? ¿Qué pasa si su forma está determinada por los procesos cuánticos, donde las nociones usuales no pueden darse por garantizadas? Para estos casos, se requieren nociones de dimensionalidad más refinadas. El número de dimensiones ni siquiera tiene por qué ser un número entero. Es el caso de los patrones fractales, que ofrecen el mismo aspecto a todas las escalas.
Dimensiones enteras
1 dimensión
2 dimensiones
3 dimensiones
4 dimensiones
Dimensiones fractales
Conjunto de Cantor Tómese una línea, extráigase el tercio central y repítase la operación hasta el infinito. El fractal resultante es mayor que un punto solitario, pero menor que una línea continua. Su dimensión de Hausdorff (véase abajo) es 0,6309.
Triángulo de Sierpinski ´ Un triángulo del que se extraen subtriángulos de magnitud decreciente es una figura intermedia entre una línea unidimensional y una superficie de dos dimensiones. Su dimensión de Hausdorff es 1,5850.
Esponja de Menger Un cubo del que se extraen subcubos es un fractal. Este fractal constituye una superficie que parcialmente llena un volumen. Su dimensión de Hausdorff es 2,7268, similar a la del cerebro humano.
Definiciones generalizadas de dimensión
Uso de las definiciones
Dimensión de Hausdorff Esta definición, formulada por el matemático alemán de principios del siglo XX Felix Hausdorff, se basa en la relación de dependencia del volumen V de una región de su tamaño lineal, r. Para el espacio tridimensional ordinario, V es proporcional a r3. El exponente indica el número de dimensiones. «Volumen» puede remitir a otras medidas del tamaño total, el área, por ejemplo. Para el triángulo de Sierpi´nski, V es proporcional a r1,5850, lo que refleja que esta figura no cubre completamente una superficie.
Diferentes maneras de calcular el número de dimensiones dan números diferentes, pues no analizan el mismo aspecto de la geometría. Para algunas figuras geométricas, el número de dimensiones no es fijo. Pensemos, a modo de ejemplo, que la difusión puede ser una función más complicada que el tiempo elevado a cierta potencia.
Dimensión espectral Esta definición describe cómo se propagan las cosas a través de un medio a lo largo del tiempo, ya se trate de una gota de tinta en un tanque de agua o una enfermedad en una población. Cada molécula de agua, o individuo en la población, tiene un cierto número de vecinos más cercanos. Ese número determina la velocidad a la que la tinta, o la enfermedad, se difunden. En un medio tridimensional, una nube de tinta crece en tamaño como el tiempo elevado a la potencia 3/2. En el triángulo de Sierpin´ski, la tinta debe filtrarse a través de una forma retorcida, por lo que se propaga más lentamente: como el tiempo elevado a la potencia 0,6826, lo que corresponde a una dimensión espectral de 1,3652.
JEAN-FRANCOIS PODEVIN
ESPACIOTIEMPO A LO GRANDE
Esta simulación fue la primera de una serie en marcha de experimentos computacionales en los que tratamos de obtener las propiedades físicas y geométricas del espaciotiempo cuántico con simulaciones por ordenador. Nuestro siguiente paso fue estudiar la forma del espaciotiempo a grandes distancias y verificar que coincide con la realidad, es decir, con las predicciones de la relatividad general. Esta prueba constituye un auténtico reto en modelos no perturbativos de gravedad cuántica, que no presumen una forma predeterminada del espaciotiempo. De hecho, resulta tan difícil, que la mayoría de los intentos de cons-
InvestigacionyCiencia.es
Las simulaciones de la gravedad cuántica se centran en la dimensión espectral. Tales simulaciones imaginan una entidad pequeña que cae en un bloque constituyente del espaciotiempo cuántico. Desde ahí, ese ser camina al azar. El número total de bloques constituyentes del espaciotiempo que toca durante un período determinado revela la dimensión espectral.
truir la gravedad cuántica —entre ellos la teoría de las cuerdas, excepto en casos especiales— no están lo suficientemente avanzados para lograrlo. Para que nuestro modelo funcionara, hubimos de incluir desde el principio una constante cosmológica, una entidad invisible e inmaterial que impregna el espacio, incluso en ausencia total de otras formas de materia y energía. Este requisito es una buena noticia, porque las observaciones cosmológicas llevan a creer que existe semejante tipo de energía. Aún más: el espaciotiempo emergente tiene una geometría de De Sitter, la solución de las ecuaciones de Einstein para un universo
UĄÿČûĈĉo ùċħĄĊÿùo 59
Ampliar el espaciotiempo Según los cálculos de los autores, la dimensión espectral del espaciotiempo pasa de cuatro (a grandes escalas) a dos (a pequeñas escalas); el espaciotiempo, de continuo suave, se convierte en un complejo fractal. No se sabe aún si esta conclusión significa que el espaciotiempo se compone de «átomos» localizados o que está formado por complicados patrones que guardan muy poca relación con los conceptos geométricos comunes. DIMENSIÓN ESPECTRAL DEL ESPACIOTIEMPO CUÁNTICO 4,0 3,5 3,0 2,5 2,0
Tiempo de difusión El espaciotiempo cuántico puede ser como la nieve, que es fractal en las pequeñas escalas... ... pero suave y totalmente tridimensional en las grandes.
que no contenga nada más que la constante cosmológica. Es verdaderamente notable que ensamblando bloques constituyentes microscópicos de una manera a todos los efectos aleatoria —sin tener en cuenta ninguna simetría o estructura geométrica preferente—, se obtenga un espaciotiempo que, a grandes escalas, adquiere la forma muy simétrica del universo de De Sitter. Esta aparición dinámica de un universo de cuatro dimensiones con la forma física correcta a partir de primeros principios es el logro central de nuestro enfoque. La investigación en curso quiere saber si este notable resultado se puede entender en términos de las interacciones de unos aún no identificados «átomos» fundamentales del espaciotiempo. Una vez convencidos de que nuestro modelo de gravedad cuántica superaba una serie de pruebas clásicas, era el momento de pasar a otro tipo de experimento, que sondeara la estructura cuántica del espaciotiempo que la teoría clásica de Einstein no permite. Una de las simulaciones que hemos realizado es un proceso de difusión: dejamos que un análogo adecuado de una gota de tinta caiga en la superposición de universos para ver cómo se dispersa y cómo las fluctuaciones cuánticas la van llevando de aquí para allá. Midiendo el tamaño de la nube de tinta, al cabo de un cierto tiempo podemos determinar el número de dimensiones del espacio (véase el recuadro «Una nueva dimensión del espacio»). El resultado marea: el número de dimensiones depende de la escala. En otras palabras: si dejamos que la difusión avance solo un breve período de tiempo, el espaciotiempo parece tener un número de dimensiones diferente que cuando la dejamos correr durante mucho tiempo. Ni siquiera quienes nos dedicamos a la gravedad cuántica podemos apenas imaginar cómo el espaciotiempo podría ir cambiando gradualmente de
60 Tûăaĉ 63
dimensión dependiendo de la resolución del microscopio que lo observe. Está claro que un objeto pequeño experimenta el espaciotiempo de manera completamente diferente de otro grande. Para el objeto pequeño, el universo presenta una suerte de estructura fractal. Un fractal es un extraño tipo de espacio donde el concepto de tamaño no existe. Es autosemejante: parece el mismo a todas las escalas. No hay reglas, ni otros objetos de un tamaño característico, que puedan servir de patrón de medición. «Pequeño», ¿qué significa ahí? Hasta un tamaño de unos 10–34 metros, el universo cuántico está bien descrito por la geometría clásica, tetradimensional, de De Sitter, aunque las fluctuaciones cuánticas van adquiriendo un creciente interés. Que se pueda confiar en la aproximación clásica a distancias tan cortas es bastante sorprendente. Tiene importantes implicaciones para el universo, lo mismo en sus inicios que en un futuro lejano. En ambos extremos, el universo se encuentra vacío a todos los efectos. Al principio, las fluctuaciones cuánticas gravitacionales serían tan enormes que la materia, balsa minúscula en un océano rugiente, apenas dejaría huella. Dentro de muchos miles de millones de años, la materia, a causa de la rápida expansión del universo, se hallará tan diluida que dejará de desempeñar ningún papel. Nuestro método puede explicar la forma del espacio en las dos situaciones. A escalas aún más cortas, las fluctuaciones cuánticas del espaciotiempo se hacen tan fuertes que las nociones intuitivas, clásicas, de la geometría se vienen abajo. El número de dimensiones cae de las clásicas cuatro a un valor de alrededor de dos. Sin embargo, en la medida en que podemos saberlo, el espaciotiempo sigue siendo continuo, sin agujeros de gusano. No es tan salvaje como el físico John Wheeler y muchos otros imaginaban: no es una burbujeante espuma de espaciotiempo. La geometría del espaciotiempo obedece normas que no son clásicas, que no son comunes, pero el concepto de distancia sigue siendo válido. Nos encontramos ahora en proceso de sondear escalas aún más finas. Una posibilidad es que el universo se convierta en autosemejante y parezca el mismo a todas las escalas por debajo de cierto umbral. Si es así, el espaciotiempo no consistirá en cuerdas o en átomos de espaciotiempo, sino en un infinito aburrimiento: la estructura que se observe justo por debajo del umbral simplemente se repetirá a sí misma en escalas cada vez más pequeñas, ad infinitum. Es difícil imaginar cómo los físicos podrían salir adelante con menos ingredientes y herramientas técnicas que las que hemos utilizado para crear un universo cuántico con propiedades realistas. Todavía tenemos que realizar muchas pruebas y experimentos; por ejemplo, para entender cómo se comporta la materia en el universo y cómo, a su vez, influye en la forma global del universo. La meta final, de nuestra teoría y de cualquier otra que aspire a describir la gravedad cuántica, es la predicción de consecuencias observables deducidas de la estructura cuántica microscópica. Este será el criterio último para decidir si nuestro modelo es, realmente, la teoría correcta de la gravedad cuántica. PA R A S A B E R M Á S
Deriving dimensions. Adrian Cho en Physical Review Focus, 28 de septiembre de 2004. Planckian birth of a quantum De Sitter universe. J. Ambjørn, A. Görlich, J. Jurkiewicz y R. Loll en Physical Review Letters, vol. 100, artículo n.o 091304, 7 de marzo de 2008. The complete idiot’s guide to string theory. George Musser. Alpha, 2008. The emergence of spacetime, or quantum gravity on your desktop. R. Loll en Classical and Quantum Gravity, vol. 25, n.o 114.006, 7 de junio de 2008.
1er Trimestre 2011
LUCY READING-IKKANDA; NOAA/PHOTO RESEARCHERS, INC. (copo de nieve); TERRY W. EGGERS CORBIS (banco de nieve)
DIMENSIÓN Y E S CALA
KEITH PETERS
Implicaciones cosmológicas
Artículo publicado en Investigación y Ciencia, n.o 398
IMPLIC ACIONE S COSMOLÓGIC A S
El origen del universo
Los cosmólogos se acercan a los procesos que crearon y dieron forma al universo
E
Ă ċĄÿČûĈĉo ûĉ ûĄoĈăû, ûĄ ûĂ ûĉĆaùÿo ď ûĄ ûĂ tiempo. Durante buena parte de la historia de la humanidad ha estado fuera del alcance de nuestros instrumentos y de nuestras mentes. Dejó de ser así en el siglo xx. Debemos ese cambio radical a ideas brillantes, como la relatividad general de Einstein y las teorías de las partículas elementales, pero también a instrumentos más potentes, desde los reflectores de 2,54 y 5,08 metros de George Ellery Hale, con los que vimos más allá de la Vía Láctea, hasta el Telescopio Espacial Hubble, que nos ha mostrado el nacimiento de las galaxias. En el curso de los últimos 20 años, el progreso se ha acelerado: hemos sabido que la materia oscura no está hecha de átomos comunes, se ha descubierto que existe una energía oscura y han ido apareciendo nuevas ideas muy atrevidas, como la inflación cósmica y el multiverso. El universo de hace cien años era sencillo: eterno, invariable, formado por una única galaxia y con unos pocos millones de estrellas visibles. El cuadro es hoy mucho más completo y rico. El cosmos nació hace 13.700 millones de años con la gran
explosión, expresión que no debe entenderse literalmente. Una fracción de segundo después, el universo no era más que una informe sopa caliente de partículas elementales (quarks y leptones). Durante la expansión y enfriamiento, se fueron desarrollando los niveles de estructura uno tras otro: los protones y neutrones, los núcleos de los átomos, las galaxias, los cúmulos de galaxias y, finalmente, los supercúmulos. La parte observable del universo contiene unos cien mil millones de galaxias, cada una con cien mil millones de estrellas y un número similar de planetas. Las galaxias mismas no se dispersan sino por la gravedad de la misteriosa materia oscura. El universo sigue expandiéndose, a un ritmo acelerado, guiado por la energía oscura, una forma de energía aún más misteriosa cuya fuerza de gravedad repele en vez de atraer. La historia de nuestro universo es la historia de una evolución que va de la simplicidad de una sopa de quarks a la complejidad que observamos hoy día en las galaxias, las estrellas, los planetas y la vida, que fueron apareciendo a lo largo de miles de millones de años bajo la guía de las leyes básicas de la física. En su viaje de vuelta al comienzo de la creación, los cosmólogos recorren primero la historia bien conocida del
EN SÍNTESIS
El universo comenzó con una gran explosión hace 13.700 millones de años. Desde entonces, ha pasado de ser una sopa informe de partículas elementales al cosmos rico en estructuras que observamos hoy.
62 Tûăaĉ 63
Fue durante el primer microsegundo cuando la materia dominó sobre la antimateria, se creó la materia oscura y se formaron las primeras estructuras que más tarde se convertirían en galaxias.
El futuro del universo depende de la energía oscura, una forma desconocida de energía que provocó que la expansión cósmica comenzase a acelerarse hace pocos miles de millones de años.
1er Trimestre 2011
HOLLY LINDEM (fotoilustración); GENE BURKHARDT (diseño)
Michael S. Turner
XXXXXXXX
InvestigacionyCiencia.es
UĄÿČûĈĉo ùċħĄĊÿùo 63
universo, hasta el primer microsegundo; desde ahí hasta los 10–34 segundos después del inicio, hay ideas bien formadas pero no consolidadas; y finalmente llegan a los momentos más primitivos de la creación, para los que no contamos más que con meras especulaciones. Aunque el origen último del universo todavía se nos escapa, se han tanteado algunas conjeturas, incluida la noción de multiverso, según la cual el universo está formado por un número infinito de subuniversos sin relación alguna entre sí. UNIVERSO EN EXPANSIÓN
En 1924, con el telescopio Hooker de 2,54 metros de Monte Wilson, Edwin Hubble demostró que las nebulosas borrosas, objeto de cábalas durante siglos, eran galaxias. Como la nuestra. Así multiplicó el tamaño del universo por cien mil millones. Unos pocos años más tarde, resolvió que las galaxias se iban separando unas de otras de acuerdo con cierta relación matemática (llamada hoy ley de Hubble), según la cual las galaxias más lejanas se alejan más deprisa. Es la ley de Hubble, extrapolada hasta los primeros tiempos, la que apunta a una gran explosión hace 13.700 millones de años. La ley de Hubble encontró una interpretación sencilla en la relatividad general: el espacio mismo se está expandiendo y se lleva consigo a las galaxias (véase el recuadro «Expansión cósmica»). La luz se está también estirando o corriendo hacia el rojo, proceso que absorbe energía, por lo que el universo se enfría con la expansión. La expansión cósmica proporciona la pauta de cómo ha llegado el universo a ser lo que es hoy. Mirando hacia atrás en el tiempo, el universo se presenta más denso y caliente, más extremo y sencillo. Cuando exploramos los orígenes, examinamos los mecanismos internos de la naturaleza, porque disponemos entonces del acelerador más poderoso, la propia gran explosión. Al mirar al espacio con los telescopios, se indaga en el pasado, y cuanto mayor es el telescopio, más atrás en el tiempo se
remonta. La luz de las galaxias lejanas descubre una época temprana; la cantidad que la luz se ha desplazado al rojo indica cuánto ha crecido el universo mientras tanto. El récord actual está en un desplazamiento al rojo de ocho; aquella luz partió cuando el universo era solo una novena parte del de hoy en tamaño y tenía apenas unos cientos de millones de años. Los instrumentos —el Telescopio Espacial Hubble, los telescopios Keck de 10 metros en Mauna Kea— nos trasladan a la época en que se formaron las galaxias, unos pocos miles de millones de años después de la gran explosión. La luz de tiempos más remotos está tan desplazada al rojo que hay que buscarla en el infrarrojo y en bandas de radio. Los próximos telescopios, entre ellos el Telescopio Espacial James Webb, un infrarrojo de 6,5 metros, y la Gran Red Milimétrica de Atacama (ALMA), un conjunto de 64 radioantenas sito en el norte de Chile, nos llevarán al nacimiento mismo de las primeras estrellas y galaxias. Las simulaciones por computadora sugieren que esas primeras estrellas y galaxias se formaron cuando el universo contaba unos 100 millones de años. Antes había atravesado una «edad oscura», en la que todo era básicamente negro. Había una papilla sin estructuras, cinco partes de materia oscura y una parte de hidrógeno y helio, cada vez menos espesa conforme el universo se expandía. La materia tenía densidades ligeramente diferentes; la gravedad actuó amplificando esas diferencias: las regiones más densas se expandieron más despacio que las menos densas. Al cabo de cien millones de años, las regiones más densas dejaron de expandirse y empezaron a colapsar. Cada una de estas estructuras albergaba materia en una cantidad equivalente a mil millones de masas solares. Fueron los primeros objetos del cosmos ligados por gravedad. La materia oscura aportaba el grueso de la masa, pero era, como su nombre indica, incapaz de emitir o absorber luz, por lo que permaneció en nubes extensas. El gas de hidrógeno y helio, por el contrario, emitía luz y perdía energía, y se concentraba en el centro de la nube. Con el tiempo colapsó y formó estre-
DESPLAZAMIENTO AL ROJO
Expansión cósmica
MELISSA THOMAS
El volumen del universo viene fijado por la expansión del espacio. Al estirarse el espacio como la goma de un globo que se hincha, las galaxias se separan y las ondas de luz se alargan (y, por tanto, enrojecen).
64 Tûăaĉ 63
1er Trimestre 2011
E N E L P R I N C I P I O. . .
A
B
No existió ninguna era anterior
La materia, la energía, el espacio y el tiempo comenzaron de manera abrupta con la explosión.
Antes de la gran explosión Se desconoce todavía cómo se inició el universo, pero la pregunta ha entrado ya en el terreno científico, donde se estudia una serie de hipótesis bastante especulativas.
Emergencia cuántica
El espacio común y el tiempo se desarrollaron a partir de un estado primitivo descrito por la teoría cuántica de la gravedad.
C
Multiverso
D
Universo cíclico
10–43 segundos
La era de Planck: tiempo más primitivo con significado; el espacio y el tiempo tomaron forma.
Nuestro universo y otros brotaron de un espacio eterno.
La gran explosión es el último estado de un eterno ciclo de expansión, colapso y nueva expansión.
R. THOMPSON UNIVERSIDAD DE ARIZONA, NASA Y ESA (Campo Ultraprofundo de Hubble)
(del ciclo anterior)
llas. Estas primeras estrellas tenían mucha más masa que las de hoy, más de cien veces la del Sol. Su vida era muy corta; enseguida explotaban y liberaban al espacio los primeros elementos pesados. A lo largo de los siguientes miles de millones de años, la fuerza de gravedad transformó las nubes de más de un millón de masas solares en las primeras galaxias. Las redes gigantes de radioantenas con un área colectora total igual a un kilómetro cuadrado deberían poder captar la radiación procedente de las nubes de hidrógeno primordial, fuertemente desplazadas al rojo por la expansión. Una vez se las haya construido, observarán cómo ionizó el hidrógeno la primera generación de estrellas y galaxias y puso fin a la edad oscura [véase «La edad oscura del universo», por Abraham Loeb; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, enero de 2007]. DÉBIL BRILLO DE UN COMIENZO CALIENTE
El resplandor de la gran explosión caliente nos llega desde más allá de la edad oscura, con un desplazamiento al rojo de 1100. Esta radiación está desplazada del visible (era originalmente una luz naranja-rojiza) hasta más allá del infrarrojo, hasta las microondas. Lo que observamos de ese momento es una pared de luz de microondas que inunda el cielo, la radiación del fondo cósmico de microondas (CMB), descubierta en 1964 por Arno Penzias y Robert Wilson. Proporciona una visión del universo a sus 380.000 años, el período en que se formaron los átomos.
InvestigacionyCiencia.es
Antes de ese momento, el universo no era más que una sopa casi uniforme de núcleos atómicos, electrones y fotones. Cuando se enfrió hasta una temperatura de unos 3000 kelvin, los núcleos y los electrones se combinaron en átomos. Los electrones dejaron de dispersar los fotones, que atravesaron así el espacio sin que se les obstaculizase, hasta llegar a nosotros y mostrarnos el universo de una época anterior a la existencia de estrellas y galaxias. En 1992, el satélite Explorador del Fondo Cósmico, de la NASA, descubrió que la intensidad del CMB presentaba pequeñas variaciones —del orden del 0,001 por ciento— que se correspondían con irregularidades en la distribución de la materia. El
El campo ultraprofundo del Hubble, la imagen óptica más sensible del cosmos jamás tomada, muestra más de mil galaxias en sus primeros estadios de formación.
UĄÿČûĈĉo ùċħĄĊÿùo 65
La línea del tiempo cósmico continúa con una serie de eventos bien establecidos hasta llegar al día presente.
Primeros momentos de la gran explosión
La inflación cósmica genera un gran parche continuo de espacio lleno de una sopa grumosa de quarks
10–30 segundos
Se sintetiza uno de los posibles tipos de materia oscura (axiones)
10–11 segundos
La materia vence a la antimateria
10–10 segundos
Se sintetiza un segundo tipo posible de materia oscura (los neutralinos)
grado de esas irregularidades primordiales bastó para que hiciesen de semillas de las galaxias y grandes estructuras que surgirían más tarde como consecuencia de la acción de la gravedad. El patrón de las variaciones del CMB en el firmamento encerraba también información sobre algunas propiedades básicas del universo, como su densidad global y composición, y sobre los primeros momentos; el estudio detallado de las variaciones ha revelado mucho acerca del universo. Si proyectásemos hacia atrás la película de la evolución del universo a partir de ese punto, el plasma primordial se volvería más y más caliente y denso. Antes de los 100.000 años, la densidad de la radiación superaba la de la materia e impedía que esta se agrupara. Por tanto, ese momento marcó el inicio del ensamblaje gravitatorio de las estructuras que hoy apreciamos. Aún antes, cuando el universo tenía menos de un segundo, los núcleos atómicos no se habían formado aún; solo existían sus partículas constituyentes, es decir, los protones y los neutrones. Los núcleos aparecieron cuando el universo contaba con una edad de pocos segundos y las temperaturas y densidades eran las adecuadas para las reacciones nucleares. Este proceso de nucleosíntesis solo fabricó los elementos más ligeros de la tabla periódica: mucho helio (un 25% de la masa atómica) y cantidades más pequeñas de litio y de los isótopos deuterio y helio 3.
La inmensa mayoría del Universo está formada por energía oscura y materia oscura, pero aún no se sabe en qué consisten la una y la otra. La materia común, de que están hechas las estrellas, los planetas y el gas interestelar, solo suma una pequeña fracción.
71,5 % Energía oscura
24 % Materia oscura
0,5 % Estrellas 4,0 % Gas y planetas
66 Tûăaĉ 63
10–5 segundos Los protones y los neutrones se forman a partir de los quarks
0,01-300 segundos
A partir de los protones y neutrones se forman el helio, el litio y los núcleos pesados del hidrógeno
380.000 años
Los átomos formados por los núcleos y los electrones liberaron la radiación del fondo cósmico de microondas
El resto del plasma (un 75%) permaneció en forma de protones, que con el tiempo se convirtieron en átomos de hidrógeno. Todos los demás elementos de la tabla periódica aparecieron en las estrellas y las explosiones estelares miles de millones de años más tarde. La teoría de la nucleosíntesis predice con precisión las abundancias de los elementos y de los isótopos, medidas en las muestras más primitivas del universo: las estrellas más viejas y las nubes gaseosas de alto corrimiento hacia el rojo. La proporción de deuterio, muy sensible a la densidad de átomos del universo, desempeña una función especial: indica que la materia común representa solo el 4,5±0,1 por ciento de la densidad de energía. (El resto es materia oscura y energía oscura.) Esta estimación coincide con la composición que se deduce del análisis del CMB. Tal concordancia representa un gran triunfo. Que dos medidas tan diferentes coincidan, una basada en la física de la nucleosíntesis cuando el universo tenía un segundo y la otra en la física atómica de cuando el universo contaba 380.000 años, constituye una sólida ratificación, no solo de nuestro modelo de la evolución del universo, sino también de la física moderna. RESPUESTAS EN LA SOPA DE QUARKS
Antes del primer microsegundo, ni los protones ni los neutrones podrían haberse dado; el universo era una sopa de los ladrillos básicos de la naturaleza: quarks, leptones y los transmisores de las interacciones (fotones, bosones W y Z y gluones). Estamos seguros de que existió la sopa de quarks: los experimentos en los aceleradores de partículas han recreado unas condiciones similares aquí, en la Tierra de hoy [véase «Los primeros microsegundos», por Michael Riordan y William A. Zajc; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, julio de 2006]. Para explorar esa época, los cosmólogos se apoyan no solo en telescopios mayores y mejores, sino también en las potentes ideas de la física de partículas. Tras la constitución del modelo estándar de la física de partículas hace 30 años, se han propuesto ideas atrevidas, entre ellas la teoría de cuerdas, para unificar partículas y fuerzas fundamentales dispares. Estas nuevas ideas tienen consecuencias cosmológicas tan considerables como las tuvo la noción de gran explosión caliente. Señalan conexiones más profundas e inesperadas entre el mundo de lo muy grande y lo muy pequeño. Se están bosquejando las respuestas a tres preguntas: la naturaleza de la materia oscura, la asimetría entre la materia y la antimateria, y el origen mismo de la sopa irregular de quarks.
1er Trimestre 2011
MELISSA THOMAS
10–35 segundos
Formación de átomoss
Época oscura a
380.000-300 millones de años
MAX TEGMARK Y ANGELICA DE OLIVERA-COSTA (radiación cósmica de microondas)
La gravedad continúa amplificando las diferencias de densidad en el gas que llena el espacio
Era moderna a
300 millones de años
Se forman las primeras estrellas y galaxias
1000 millones de años
Límite de las observaciones actuales (los objetos de mayor desplazamiento al rojo)
Ahora se piensa que la sopa primitiva de quarks fue el lugar de nacimiento de la materia oscura. La identidad de la materia oscura sigue sin aclararse, pero su existencia está bien establecida. Nuestra galaxia —y cualquier otra galaxia, y los cúmulos de galaxias— se mantiene unida por la gravedad de la invisible materia oscura. Sea lo que sea la materia oscura, debe interactuar muy débilmente con la materia común; de lo contrario, se habría manifestado de alguna manera. Los intentos por encontrar un marco unificador de las fuerzas y las partículas de la naturaleza han predicho la presencia de partículas estables y duraderas que podrían constituir la materia oscura. Esas partículas serían los remanentes de la sopa de quarks; se cree que interaccionan muy débilmente con los átomos. Uno de los candidatos es el neutralino, la más ligera de una supuesta nueva clase de partículas, homólogas de las partículas conocidas pero más pesadas. La masa del neutralino sería entre 100 y 1000 veces la del protón; quedaría justo al alcance de los experimentos que se ejecutarán en el Gran Colisionador de Hadrones del CERN, cerca de Ginebra. Además, se han construido detectores subterráneos ultrasensibles y se ha lanzado al espacio una variedad de satélites y globos con el fin de buscar esta partícula y los subproductos de sus interacciones. El segundo candidato es el axión, una partícula superligera, cuya masa es una billonésima de la masa del electrón. Su existencia se infiere de las sutilezas del comportamiento de los quarks descritas por el modelo estándar. Los esfuerzos por detectarlo parten del hecho de que un axión se puede transformar en un fotón bajo campos magnéticos muy intensos. Neutralinos y axiones tendrían la importante propiedad de ser, en términos técnicos, «fríos». Aunque se formasen en condiciones muy calientes, sus movimientos serían lentos y, por tanto, las galaxias los habrían capturado con facilidad. Puede que la sopa de quarks primitiva guarde también el porqué el universo actual contenga materia solo, en vez de materia y antimateria. Se piensa que el universo original contenía cantidades iguales de ambas, hasta que en un momento concre-
InvestigacionyCiencia.es
3000 millones de años
Se forman los cúmulos de galaxias; culmina la formación estelar
9000 millones de años Se forma el sistema solar
10.000 millones de 13.700 millones de años años La energía oscura toma el control y la expansión comienza a acelerarse
Hoy
to se produjo un ligero exceso de la materia, aproximadamente un quark de más por cada mil millones de antiquarks. Tal desequilibrio aseguró la supervivencia de un número suficiente de quarks frente a la aniquilación con los antiquarks en la expansión y enfriamiento del universo. Hace más de 40 años que los experimentos de los aceleradores revelaron que las leyes de la física están siempre ligeramente sesgadas a favor de la materia. Aunque aún hay que entender una serie de interacciones muy tempranas entre las partículas, ese pequeño sesgo condujo a la creación del exceso de quarks. Se piensa que la propia sopa de quarks tuvo su origen en un momento muy temprano, quizás a los 10 –34 segundos después de la gran explosión, en la apoteosis de expansión cósmica que recibe el nombre de «inflación». Tal hiperexpansión, guiada por la energía de un nuevo campo (análogo en líneas muy generales al campo electromagnético), el inflatón, explicaría algunas propiedades básicas del cosmos; por ejemplo, la uniformidad global y los grumos que hicieron de semillas de las galaxias y otras estructuras del universo. Al desintegrarse el inflatón, liberó el resto de su energía en los quarks y otras partículas, generando a la vez el calor de la gran explosión y la sopa de quarks. La inflación conduce a una profunda conexión entre los quarks y el cosmos: las fluctuaciones cuánticas en el campo del inflatón, que eran de escala subatómica, pasaron a tener tamaños astrofísicos con la rápida expansión, convirtiéndose así en las semillas de toda estructura observada hoy día. En otras palabras, el patrón detectado en el cielo del fondo cósmico de microondas es la imagen a escala gigantesca de un mundo subatómico. Las observaciones del CMB coinciden con esta predicción, lo que evidencia que la inflación, o algo parecido, ocurrió muy pronto en la historia del universo.
La radiación del fondo cósmico de microondas es una imagen del universo a la edad de 380.000 años. Las pequeñas variaciones en la intensidad de la radiación (codificada con colores en la figura) constituyen la piedra Rosetta cósmica que revela parámetros cruciales del universo, como su edad, densidad, geometría y composición química global.
UĄÿČûĈĉo ùċħĄĊÿùo 67
EL NACIMIENTO DEL UNIVERSO
Los cosmólogos intentan avanzar más en nuestra comprensión de la génesis del universo. Aquí las ideas parecen menos firmes. La teoría de la relatividad general de Einstein ha sido el pilar teórico fundamental durante un siglo de progreso en el conocimiento de la evolución del universo. Sin embargo, no es coherente con el otro pilar de la física contemporánea, la teoría cuántica. El mayor desafío al que se enfrenta la física es reconciliar las dos teorías. Solo con una teoría unificada estaremos capacitados para comprender los primeros momentos del universo, la llamada era de Planck, anterior a los 10–43 segundos, cuando el espaciotiempo tomó forma. Algunas tentativas de teoría unificada han aportado interesantes conjeturas sobre nuestros orígenes. La teoría de cuerdas, por ejemplo, predice la existencia de más dimensiones espacia-
les y quizá de otros universos inmersos en un espacio mayor. Lo que llamamos gran explosión pudo haber sido el choque de nuestro universo con otro universo [véase «El universo antes de la gran explosión», por Gabriele Veneziano; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, julio de 2004]. El matrimonio entre la teoría de cuerdas y el concepto de la inflación produce la idea más curiosa de todas, la de multiverso: el universo constaría de un número infinito de piezas desconectadas, cada una con sus propias leyes locales de la física [véase «El paisaje de la teoría de cuerdas», por Raphael Bousso y Joseph Polchinski; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, noviembre de 2004]. El concepto del multiverso, aún en su infancia, se funda en dos hallazgos teóricos clave. El primero, que las ecuaciones que describen la inflación sugieren que, si una vez hubo inflación, debería pasar una y otra vez, con un número infinito de
FINALE S P OSIBLE S
El futuro Los sucesos predecibles, como los choques de galaxias, dominan el futuro próximo. Pero el destino final de nuestro universo dependerá de que la energía oscura siga acelerando la expansión cósmica o no. A grandes rasgos, existen cuatro suertes posibles.
20.000 millones de años
A
La aceleración termina y el universo se expande eternamente
B
La aceleración continúa
C
La aceleración se intensifica
50 mil millones de años
D
La aceleración cambia a deceleración rápida y lleva a un colapso
30 mil millones de años
100 billones de años
Se agotan las últimas estrellas
30.000 mil millones de años
Apagón cósmico: la aceleración cósmica transporta a las galaxias fuera de nuestro alcance; se pierde todo rastro de la gran explosión
La Vía Láctea chocará con la galaxia Andrómeda
«Gran desgarro»: la energía oscura rompe todas las estructuras, de los supercúmulos a los átomos
(hacia el siguiente ciclo)
68 Tûăaĉ 63
MELISSA THOMAS
«Gran contracción», quizá seguida de una nueva gran explosión en un ciclo eterno
FILOSOFÍA
En la oscuridad
LIANG GAO, CARLOS FRENK Y ADRIAN JENKINS INSTITUTO DE COSMOLOGÍA COMPUTACIONAL, UNIVERSIDAD DE DURHAM
La característica central de nuestro concepto actual del universo, así como su mayor misterio, es la energía oscura, una forma extraña de energía descubierta recientemente y origen de la aceleración de la expansión cósmica. La energía oscura tomó control sobre la materia hace unos pocos miles de millones de años. Con anterioridad, la expansión se había ido frenando a consecuencia de la atracción gravitatoria ejercida por la materia, y la gravedad fue forjando estructuras, de las galaxias a los supercúmulos. Hoy, por la influencia de la energía oscura, no se pueden generar estructuras mayores que los supercúmulos. Si la energía oscura hubiera dominado sobre la materia cuando el universo contaba solo cien millones de años, habría cesado la formación de cualquier estructura, incluso antes de que se constituyesen las galaxias, y no estaríamos aquí. Los cosmólogos tienen solo ideas rudimentarias de qué podría ser la energía oscura. Para acelerar la expansión es necesario que haya una fuerza repulsiva; la teoría de la relatividad general de Einstein predice que la gravedad de una forma de energía extremadamente elástica puede llegar a ser repulsiva. La energía cuántica que llena el espacio vacío podría actuar de esa manera. El problema
regiones inflacionarias creadas a lo largo del tiempo. Nada puede viajar entre estas regiones, por lo que no tienen efecto unas sobre otras. El segundo, que la teoría de cuerdas sugiere que esas regiones presentan parámetros físicos distintos, incluidos el número de dimensiones espaciales y los tipos de partículas estables. La idea del multiverso da respuestas novedosas a dos de las mayores preguntas de la ciencia: qué había antes de la gran explosión y por qué las leyes de la física son como son (la célebre reflexión de Einstein sobre si Dios podía elegir las leyes). El multiverso hace discutible la pregunta del antes de la gran explosión, puesto que habrían existido infinitas grandes explosiones, cada una desencadenada por su propia inflación. De igual modo, la pregunta de Einstein carecería de sentido: con la existencia de un número infinito de universos, surgirían todas las combinaciones posibles de las leyes de la física, por lo que no habría ninguna razón particular para que nuestro universo tenga las leyes que tiene. Los cosmólogos muestran sentimientos encontrados ante el multiverso. Si los subuniversos desconectados están realmente incomunicados, no hay esperanza de probar su existencia; parecerían encontrarse más allá del reino de la ciencia. Parte de mí quiere gritar: «¡Un universo cada vez, por favor!» Por otra parte, el multiverso soluciona varios problemas conceptuales. Si la idea fuese cierta, la multiplicación del tamaño de universo por cien mil millones que efectuó Hubble y el desplazamiento de la Tierra del centro del universo en el siglo ĎČÿ por Copérnico parecerían, a su lado, avances diminutos en el conocimiento de nuestro lugar en el cosmos. La cosmología moderna nos humilla. Estamos hechos de protones, neutrones y electrones, que apenas representan el 4,5 por ciento del universo, y existimos solo por unas sutiles conexiones entre lo muy pequeño y lo muy grande. Los sucesos guiados por las leyes microscópicas de la física permitieron que la materia dominara a la antimateria, generaron las irregularidades de las que nacieron las galaxias, llenaron el es-
InvestigacionyCiencia.es
estriba en que las estimaciones teóricas de la cantidad de energía cuántica de vacío no encajan con la cantidad medida en las observaciones: son muchos órdenes de magnitud superiores. Como alternativa, la causa de la aceleración cósmica podría ser no un nuevo tipo de energía, sino un proceso que imite sus efectos: quizá la relatividad general no sea válida en ese respecto o influyan dimensiones espaciales no vistas [véase «La constante cosmológica», por Lawrence M. Krauss y Michael S. Turner; INVESTIGACIÓN Y CIENCIA, noviembre de 2004]. Si el universo continúa acelerándose al ritmo actual, en unos 30.000 millones de años habrá desaparecido toda traza de la gran explosión [véase «¿El fin de la cosmología?», por Lawrence M. Krauss y Robert J. Scherrer; INVESTIGACIÓN Y C IENCIA , mayo de 2008]. La luz de todas las galaxias, salvo la de unas pocas cercanas, estará demasiado desplazada al rojo para ser detectada; la temperatura de la radiación del fondo cósmico resultará demasiado baja para ser medida, y el universo se parecerá al que conocían los astrónomos de hace cien años, antes de que los instrumentos descubrieran el universo que conocemos hoy.
Si el universo tuviera aún más energía oscura, permanecería casi sin formas (izquierda), sin las estructuras que observamos hoy día (derecha).
pacio de las partículas de materia oscura que proporcionan una infraestructura gravitatoria e hicieron que la materia oscura pudiera fabricar galaxias antes de que la energía oscura ganase importancia y la expansión se acelerara (véase el recuadro «En la oscuridad»). Al mismo tiempo, la cosmología, por propia naturaleza, es arrogante. La idea de que podamos entender algo tan vasto como el espacio y el tiempo parece extravagante. Esta curiosa mezcla de humillación y arrogancia nos ha llevado muy lejos a lo largo del siglo pasado en nuestro conocimiento del universo presente y su origen. Soy positivo; espero más avances en los próximos años. Creo que estamos viviendo una época dorada de la cosmología. PA R A S A B E R M Á S
The early universe. Edward W. Kolb y Michael S. Turner. Westview Press, 1994. The inflationary universe. Alan Guth. Basic, 1998. Quarks and the cosmos. Michael S. Turner en Science, vol. 315, págs. 59-61, 5 de enero de 2007. Dark energy and the accelerating universe. Joshua Frieman, Michael S. Turner y Dragan Huterer en Annual Reviews of Astronomy and Astrophysics, vol. 46, págs. 385-432, 2008.
UĄÿČûĈĉo ùċħĄĊÿùo 69
IMPLIC ACIONE S COSMOLÓGIC A S
Buscando vida en el multiverso Otros universos con diferentes leyes físicas podrían también ser habitables Alejandro Jenkins y Gilad Perez
P
aĈa ýaĄaĈĉû Ăa Čÿúa, ûĂ þijĈoû ĊīĆÿùo úû HoĂĂďwood se dedica a escapar de la muerte. Una y otra vez, infinidad de enemigos le disparan desde todas direcciones, pero fallan por milímetros. Los coches explotan siempre una fracción de segundo demasiado tarde y él consigue encontrar refugio antes de que la explosión le alcance. Sus amigos consiguen siempre rescatarlo justo antes de que le degüelle algún villano. Si cualquiera de esas acciones hubiese ocurrido de manera ligeramente distinta, habríamos tenido que despedirnos de nuestro héroe con un «sayonara, baby». Aun cuando no hayamos visto la película
70 Tûăaĉ 63
antes, hay algo que nos dice que el protagonista llegará sano y salvo hasta el final. En cierto modo, la historia de nuestro universo se parece a una película de acción de Hollywood. Se ha aducido que un pequeño cambio en alguna de las leyes de la física hubiera desbaratado el proceso normal de evolución del universo y nuestra existencia no habría sido posible. Por ejemplo, si la interacción nuclear fuerte (la responsable de mantener unidos los núcleos atómicos) hubiera sido ligeramente más fuerte o más débil, las estrellas solo habrían generado una pequeña parte del carbono y demás elementos que parecen necesarios para la formación de planetas, por no hablar de la aparición de vida.
1er Trimestre 2011
Artículo publicado en Investigación y Ciencia, n.o 402
Si el protón fuera un 0,2 por ciento más pesado de lo que es, todo el hidrógeno primordial se hubiera desintegrado en neutrones casi inmediatamente, con lo que nunca se habrían formado los átomos. La lista es larga. Las leyes de la física (y, en concreto, los valores de las constantes de la naturaleza que entran en dichas leyes, por ejemplo las intensidades de las interacciones fundamentales) parecen haber sido finamente ajustadas para hacer posible nuestra existencia. Sin recurrir a una explicación sobrenatural (lo que, por definición, estaría fuera del ámbito de la ciencia), varios físicos y cosmólogos intentaron resolver en los años setenta ese misterio proponiendo que nuestro universo podría ser uno de muchos universos existentes, cada uno con sus propias leyes físicas. Según este razonamiento «antrópico», simplemente viviríamos en el universo particular en el que se dan las condiciones que hacen posible la vida. Sorprendentemente, la teoría imperante en la cosmología moderna, concebida en los años ochenta, sugiere que tales «universos paralelos» existirían realmente; más aún: una infinidad de universos surgiría, sin cesar, de un vacío primordial tal y como nuestro universo lo hizo en la gran explosión. Así, nuestro universo sería uno de los muchos universos de un conjunto mayor, denominado multiverso. En la inmensa mayoría de estos universos, las leyes de la física no posibilitarían la formación de materia tal y como la conocemos, ni tampoco la de galaxias, estrellas, planetas o vida. Pero, por el mero número de posibilidades, la naturaleza habría tenido una buena oportunidad de atinar con el conjunto «correcto» de leyes naturales, al menos una vez. Sin embargo, nuestros estudios recientes sugieren que algunos de esos otros universos (suponiendo que existan) quizá no sean tan inhabitables. Hemos encontrado ejemplos de valores alternativos de las constantes fundamentales (y, por tanto, de nuevas leyes físicas) que todavía darían lugar a mundos interesantes y, tal vez, a la aparición de vida. La idea consiste en cambiar alguna propiedad de las leyes de la naturaleza y compensar los efectos del cambio con modificaciones adicionales en otros aspectos. En nuestro trabajo no hemos abordado el problema de ajuste fino más importante de la física teórica: la pequeñez de la constante cosmológica, gracias a la cual nuestro universo ni volvió a colapsar una fracción de segundo después de la gran explosión, ni fue hecho pedazos por una expansión exponencialmente acelerada. En cualquier caso, el haber hallado ejemplos de universos alternativos, en potencia habitables, plantea cues-
SLIM FILMS
EN SÍNTESIS
A partir del vacío primordial que dio origen a nuestro universo podrían haber surgido otros muchos universos, cada uno con sus propias leyes físicas.
InvestigacionyCiencia.es
Suponiendo que existan, muchos de ellos podrían albergar estructuras complejas e incluso vida.
Estos resultados sugieren que quizá nuestro universo no esté tan «finamente ajustado» para permitir la aparición de vida como se había pensado hasta ahora.
UĄÿČûĈĉo ùċħĄĊÿùo 71
tiones de interés y motiva, al mismo tiempo, investigaciones futuras acerca de hasta qué punto el universo donde vivimos es único. UNA VIDA SIN INTERACCIÓN DÉBIL
El modo habitual de averiguar si cierta constante física está o no finamente ajustada es convertirla en un parámetro ajustable y cambiar su valor sin modificar los del resto de las constantes físicas. Entonces, mediante cálculos, supuestos hipotéticos o simulaciones por ordenador, se «proyecta la película» del universo que cumple las nuevas leyes de la física correspondientes al cambio efectuado y se ve qué desastre ocurre primero. Pero no existe ninguna razón por la que haya que cambiar un parámetro cada vez. Viene a ser como tratar de conducir un coche variando su latitud o su longitud, pero no ambas a la vez: a menos que viajemos por una cuadrícula, estaremos destinados a salirnos de la carretera. Pero se pueden cambiar varios parámetros al mismo tiempo. Con el objeto de buscar conjuntos alternativos de leyes que sigan permitiendo la aparición de estructuras complejas capaces de engendrar vida, uno de los autores (Pérez) y sus colaboradores no se limitaron a realizar pequeños cambios en las leyes físicas que conocemos, sino que eliminaron del
I N F L AC I Ó N
¿Qué es el multiverso? Los universos alternativos se han convertido en un campo legítimo de estudio, en parte porque puede que existan realmente. Según la teoría cosmológica imperante, nuestro universo se formó a partir de una región microscópica de un vacío primordial mediante un estallido de expansión exponencial o inflación. Pero este mismo vacío podría estar generando continuamente otros universos, cada uno con sus propias leyes físicas. Algunos serían habitables y otros, no. Universo no habitable
Universo habitable
plano una de las cuatro interacciones fundamentales de la naturaleza. Su propio nombre de fuerzas fundamentales parece indicar que las cuatro que hay en el nuestro son indispensables para cualquier universo que se precie. Sin la interacción fuerte (la responsable de ligar los quarks para formar protones y neutrones y, a su vez, de unir a estos para constituir núcleos atómicos), la materia tal y como la conocemos no existiría. Sin la fuerza electromagnética no habría luz, ni átomos, ni enlaces químicos. En ausencia de gravedad, no existiría ninguna fuerza que juntase la materia y creara así galaxias, estrellas o planetas. La cuarta fuerza, la interacción nuclear débil, aunque tiene una presencia más sutil en nuestra vida cotidiana, ha desempeñado un papel fundamental en la historia de nuestro universo. Entre otras cosas, la interacción débil hace posibles las reacciones que convierten neutrones en protones, y viceversa. En los primeros instantes tras la gran explosión, después de que los quarks (una de las primeras formas de materia que aparecieron) se hubiesen unido en grupos de tres para crear protones y neutrones, denominados en conjunto bariones, la interacción débil hizo posible que la fusión de cuatro protones crease núcleos de helio-4,
LA IDEA
72 Tûăaĉ 63
Valor real de A
Desastre
Pequeño intervalo compatible con la existencia de vida
Dos constantes Es posible trazar en un gráfico los valores observados de dos constantes A y B como si fuesen las dos coordenadas de un punto en un plano. Cada punto del plano representa un par diferente de valores. Modificar otra constante Modificar solo el valor de B sin cambiar nada más supone una trayectoria vertical. Salvo cuando se trata de cambios mínimos, el resultado suele ser un desastre.
Pequeño intervalo compatible con la existencia de vida
Desastre (universo no habitable)
Otros valores aptos para la vida Desastre Nuevo intervalo de valores aptos para la vida
Modificar una constante Modificar el valor de A (sin alterar nada más) queda representado por una trayectoria horizontal. En condiciones normales, los cambios que van más allá de un pequeño rango de valores acaban en algún desastre y el universo resultante no es apto para la vida. Cambiar ambas constantes Al cambiar A y B a la vez (por ejemplo, moviéndonos en una diagonal) podemos obtener nuevos conjuntos de valores compatibles con la existencia de vida. Lejos de los valores conocidos podría haber más «islas» de valores aptos para la vida.
1er Trimestre 2011
LUCY READING-IKKANDA
Muchas de las características que observamos en las leyes de la naturaleza parecen estar finamente ajustadas: un pequeño cambio en cualquiera de las constantes que aparecen en las ecuaciones de la física conduce, típicamente, a un «desastre»: impide la formación de átomos; o la materia se dispersa tanto por el espacio que no puede condensarse para formar galaxias, estrellas o planetas. Sin embargo, al cambiar dos constantes a la vez, es posible conseguir, en algunos casos, conjuntos de valores que son compatibles con la formación de estructuras complejas y, quizás, incluso con algunas formas de vida inteligente. Cambiar tres o más constantes aumenta aún más el rango de posibilidades.
Valor real de B
¿Como encontrar universos habitables?
NASA (burbuja de Hubble); LUCY READING-IKKANDA (branas y gato)
formados por dos protones y dos neutrones. Este proceso se denomina nucleosíntesis primordial. La nucleosíntesis primordial se produjo cuando el universo contaba con pocos segundos de vida y ya estaba lo suficientemente frío para permitir la formación de bariones y, al mismo tiempo, lo suficientemente caliente para que los bariones pudieran fusionarse en núcleos atómicos. Durante la nucleosíntesis primordial se produjeron el hidrógeno y el helio con los que luego se formarían las estrellas, y en estas, mediante la fusión nuclear y otros procesos, se generarían casi todos los demás elementos existentes. La fusión de cuatro protones para producir núcleos de helio-4 sigue produciéndose hoy en el interior del Sol, donde se genera la mayor parte de la energía que nos envía. De ese modo, en ausencia de la fuerza nuclear débil, parece improbable que un universo pueda contener nada que se parezca a una química compleja, por no hablar de la vida. No obstante, en 2006, el equipo de Pérez descubrió un conjunto de leyes físicas basado en las otras tres fuerzas, pero capaz de engendrar un universo habitable. Al eliminar la fuerza nuclear débil, fue necesario introducir varias modificaciones en el modelo estándar de la física de partículas (la teoría que describe todas las interacciones, excepto la gravedad). El equipo de investigadores demostró que es posible realizar los ajustes de tal modo que el comportamiento de las otras tres fuerzas (y de otros parámetros fundamentales, como las masas de los quarks) remedara el de nuestro mundo. Debemos subrayar aquí que se trata de una elección conservadora, cuyo único propósito era facilitar los cálculos que determinarían el desarrollo posterior de ese universo. Resulta bastante probable que exista un amplio rango de universos sin fuerza nuclear débil que sean habitables, pero que no se parezcan en absoluto al nuestro. En un universo sin interacción débil, la fusión de cuatro protones para dar núcleos de helio sería imposible, dado que requiere que dos protones se conviertan en neutrones. Existen, sin embargo, caminos alternativos para la creación de elementos químicos. Por ejemplo, nuestro universo contiene muchísima más materia que antimateria, pero un pequeño ajuste en el parámetro que regula tal asimetría basta para que la nucleosíntesis primordial genere una cantidad suficiente de núcleos de deuterio. El deuterio, también conocido como hidrógeno-2, es el isótopo cuyo núcleo consta, además del protón habitual, de un neutrón adicional. Las estrellas podrían brillar entonces fusionando un protón y un núcleo de deuterio para formar núcleos de helio-3, que constan de dos protones y un neutrón. Estas estrellas serían más frías y menores que las existentes en nuestro universo. De acuerdo con las simulaciones por ordenador de Adam Burrows, de la Universidad de Princeton, brillarían durante unos siete mil millones de años (aproximadamente, la edad actual de nuestro Sol) y radiarían energía a un ritmo que sería solo un pequeño porcentaje del ritmo del Sol. LA SIGUIENTE GENERACIÓN
Al igual que las estrellas de nuestro universo, las estrellas sin interacción débil sintetizarían los elementos pesados de la tabla periódica hasta el hierro mediante sucesivas fusiones nucleares. Sin embargo, las reacciones típicas que en nuestro universo dan lugar a elementos más pesados que el hierro quedarían suprimidas, debido principalmente a que no habría suficientes neutrones disponibles para que los núcleos pudiesen capturar-
InvestigacionyCiencia.es
OTROS MULTIVERSOS
Otras nociones de universos paralelos Los físicos y los cosmólogos hablan de universos paralelos en diferentes contextos. Existen al menos otras tres nociones de multiverso distintas de la descrita en este artículo.
Burbuja de Hubble Nuestro universo es probablemente mucho mayor que la parte que podemos observar, nuestra «burbuja de Hubble». Si es infinito, debería haber infinitas burbujas de «Burbuja de Hubble» Hubble (centradas en eventuales observadores que viviesen en galaxias remotas). Algunas podrían ser idénticas a la nuestra, con un lector como usted leyendo este mismo artículo.
Branas Si el espacio tiene más de tres dimensiones, nuestro universo podría constituir una de entre es muchas membranas tridimensionales o «branas» de un espacio multidimensional mayor. Los «universos paralelos» podrían interaccionar entre sí e incluso colisionar.
Branas paralelas
La hipótesis de los múltiples mundos En física cuántica un mismo objeto puede existir simultáneamente en distintos estados (como el famoso gato que está vivo y muerto a la vez), y solo una medición externa lo fuerza a adoptar un estado concreto. Algunos físicos creen que todos los o, estados posibles continúan existiendo, cada uno en una versión separada y «ramificada» del universo.
El gato de Schrödinger
los y formar así isótopos de masa mayor, el primer paso en la formación de elementos más pesados. Con todo, en esas estrellas podrían sintetizarse pequeñas cantidades de elementos pesados (hasta el estroncio) a través de otros mecanismos. En nuestro universo, las explosiones de supernovas son las que dispersan hacia el espacio exterior los elementos químicos sintetizados en las estrellas. Las supernovas pueden ser de distintos tipos, pero en un universo sin interacción débil no habría explosiones de supernovas provocadas por el colapso de estrellas de masa muy grande; es la emisión de neutrinos, generados por la fuerza débil, la que transmite desde el núcleo estelar la energía que alimenta la onda de choque de la explosión. Pero sí podría darse otro tipo de supernova: el que consiste en la explosión termonuclear de una estrella, solo que esta vez causada por acreción de masa, no por colapso gravitatorio. De ese modo se dispersarían también los elementos químicos hacia el espacio exterior, donde formarían nuevas estrellas y planetas.
UĄÿČûĈĉo ùċħĄĊÿùo 73
U N U N I V E R S O S I N I N T E R AC C I Ó N D É B I L
El resultado es un universo con estructuras complejas que podría albergar formas de vida similares a las que se dan en la Tierra.
Quarks
74 Tûăaĉ 63
Nuclear débil
+ +
Positrones Helio 4
=
+ Neutrón
Neutrinos
Protón
Aparecen las partículas elementales y las cuatro fuerzas fundamentales. La temperatura es tan alta que la interacción débil impide que las partículas de materia tengan masa.
El enfriamiento disminuye la intensidad de la interacción débil, con lo que las partículas de materia adquieren masa.
Los quarks arriba y abajo se combinan para dar protones (núcleos de hidrógeno) y neutrones.
Algunos protones se fusionan en núcleos de helio-4. Esta reacción depende de la interacción débil para transformar los protones en neutrones, positrones y neutrinos.
10–40 SEGUNDOS
10–12 SEGUNDOS
10–6 SEGUNDOS
1 SEGUNDO–3 MINUTOS
Los quarks arriba y abajo se combinan en protones y neutrones.
Algunos protones y neutrones se fusionan para dar deuterio y, posteriormente, núcleos de helio-3. Los protones no se pueden transformar en neutrones.
Aparecen menos partículas elementales, pero las partículas de materia ya tienen masa.
Neutrón
3 INTERACCIONES (La interacción nuclear débil no existe)
Deuterio
Helio 3
Arriba Abajo Quarks
+
= +
=
Protón Electro- Gravitatoria magnética
Dado que las estrellas serían más frías en un universo sin interacción débil, un planeta análogo a la Tierra tendría que estar situado unas seis veces más cerca de su respectivo sol para alcanzar la misma temperatura que nuestra Tierra. A los habitantes de un planeta tal, su sol les parecería mucho mayor que el nuestro. Las «Tierras» de un universo sin interacción débil diferirían de la nuestra, además, en otros aspectos. En nuestro planeta, la tectónica de placas y la actividad volcánica están impulsadas por la desintegración radiactiva del uranio y del torio que se encuentran en las profundidades de la Tierra. En ausencia de esos elementos pesados, una Tierra sin interacción débil tendría una geología más aburrida y monótona (a menos que procesos de tipo gravitatorio proporcionasen una fuente alternativa de calentamiento, como ocurre en algunas lunas de Júpiter y Saturno). La química, por otra parte, sería bastante parecida a la de nuestro mundo. Una diferencia sería que la tabla periódica acabaría en el hierro, exceptuando trazas pequeñísimas de otros elementos. Sin embargo, esta limitación no debería impedir la aparición de formas de vida similares a las que conocemos. Así pues, incluso un universo con solo tres fuerzas fundamentales podría acoger vida. Una segunda línea de investigación, llevada a cabo por otro
Puede que tengamos que aprender más sobre otros universos para entender nuestro verdadero lugar en el multiverso
Nuclear fuerte
Electro- Gravitatoria magnética NUESTRO UNIVERSO
Eliminar la interacción nuclear débil modificando varias «constantes» del modelo estándar de la física de partículas. Mantener las otras tres interacciones tal y como son en nuestro universo. Modificar otros parámetros para hacer posible la fusión nuclear en las estrellas.
Arriba Abajo
UNIVERSO ALTERNATIVO
Podría parecernos sorprendentemente familiar incluso un universo con tres interacciones fundamentales en vez de las cuatro del nuestro. El procedimiento para construirlo es el siguiente:
Protón
4 INTERACCIONES
Nuclear fuerte
Neutrón
Protón
Protón
de los autores (Jenkins) y sus colaboradores, busca conjuntos alternativos de leyes mediante otras modificaciones del modelo estándar, menores que las del caso del universo sin interacción débil pero recurriendo igualmente al ajuste de varios parámetros a la vez. En 2008, el grupo estudió hasta qué punto las masas de los tres quarks más ligeros (los denominados arriba, abajo y extraño) de los seis existentes pueden variar sin que se vuelva imposible una química orgánica. Cambiar las masas de los quarks afecta forzosamente a los tipos de bariones y de núcleos atómicos que pueden existir sin desintegrarse rápidamente. A su vez, un conjunto diferente de núcleos atómicos afecta a los tipos posibles de química. QUÍMICA DE QUARKS
Parece lógico pensar que la existencia de vida inteligente (a menos que sea muy diferente a nosotros) requiera alguna forma de química orgánica, y esta, por definición, es la química del carbono. Las propiedades químicas del carbono derivan de la carga eléctrica de su núcleo: igual a 6, lo que significa que, en un átomo de carbono neutro, orbitan seis electrones en torno al núcleo. Esas propiedades le permiten formar una variedad inmensa de moléculas complejas. (La idea de una vida basada en el silicio —el elemento siguiente en el grupo del carbono en la tabla periódica— es cuestionable. No se conoce ningún tipo de moléculas basado en silicio que presente algún grado significativo de complejidad.) Por otra parte, la formación de moléculas orgánicas complejas requiere, además, la presencia de elementos con la química del hidrógeno (carga 1) y del oxígeno (carga 8). Así, para investigar la posible existencia de una química orgánica, el equipo
1er Trimestre 2011
SLIM FILMS
Breve historia de un universo alternativo
Carbono 12
Helio 4 +
Dos tipos diferentes de supernovas
Planeta habitable (Tierra)
= +
Se forman las primeras estrellas, las galaxias y más estrellas. Estas arden principalmente por la fusión del hidrógeno para producir más helio-4.
Las estrellas fusionan helio-4 y producen así carbono y otros elementos de la tabla periódica, hasta llegar al hierro. Otros procesos generan elementos más pesados que el hierro.
150.000 AÑOS-7000 MILLONES DE AÑOS Se forman las primeras estrellas, las galaxias y más estrellas. Las estrellas son más frías y arden, sobre todo, fusionando deuterio e hidrógeno para dar más helio-3.
7000 MILLONES DE AÑOS
Las estrellas generan algo de helio-4 fusionando núcleos de deuterio. El helio se fusiona para dar carbono y los demás elementos hasta el hierro. Los elementos más pesados están prácticamente ausentes. Deuterio Helio 4 + + +
Carbono 12
= =
Algunas estrellas colapsan y se convierten en supernovas. Otras explotan tras absorber materia (un tipo diferente de supernova). Las supernovas dispersan los elementos químicos en el espacio.
+
Las estrellas que colapsan no pueden convertirse en supernovas. Pero otras sí pueden convertirse en supernovas y explotar después de absorber materia, dispersando de ese modo también los elementos por el espacio.
Aparecen criaturas inteligentes y comienzan a preguntarse por qué su universo es como es.
8000 MA
13.700 MA
Se forma el sistema solar. Para ser habitable, un planeta ha de estar más cerca de su débil sol que Mercurio del nuestro.
Aparecen criaturas inteligentes y comienzan a preguntarse por qué su universo es como es.
Solo un tipo de supernova
=
+ =
de investigadores tuvo que calcular si los núcleos atómicos de cargas 1, 6 y 8 se desintegrarían radiactivamente antes de que llegasen a participar en reacciones químicas (véase el recuadro «Jugar con la materia»). La estabilidad de un núcleo depende en parte de su masa, la cual, a su vez, depende de las masas de los bariones que lo constituyen. Calcular las masas de los bariones y de los núcleos a partir de las masas de los quarks es una tarea extremadamente difícil, incluso en nuestro universo. Sin embargo, tras cambiar la intensidad de las interacciones entre quarks, podemos usar las masas de los bariones tal y como han sido medidas en nuestro universo para estimar de qué modo cambios ligeros en la masa de los quarks repercutirían en las masas de los núcleos. En nuestro mundo, el neutrón es aproximadamente un 0,1 por ciento más pesado que el protón. Si las masas de los quarks fueran tales que el neutrón resultase un 2 por ciento más pesado que el protón, no existiría ninguna forma de carbono u oxígeno suficientemente estable. Por otro lado, si las masas de los quarks se ajustasen de tal modo que el protón resultase más pesado que el neutrón, entonces el protón del núcleo de un átomo de hidrógeno acabaría capturando al electrón que orbita a su alrededor, y se convertiría en un neutrón: los átomos de hidrógeno no llegarían a existir durante mucho tiempo. Sin embargo, el deuterio o el tritio (hidrógeno-3) aún serían estables, así como algunas formas de oxígeno y de carbono. Hemos encontrado que solo en el caso de que el protón fuera más pesado que el neutrón en un factor mayor que el 1 por ciento, serían inestables todas las formas de hidrógeno.
InvestigacionyCiencia.es
Se forma el sistema solar. La Tierra es el tercer planeta más cercano al Sol.
Planeta habitable
Si el deuterio o el tritio reemplazasen al hidrógeno-1, los océanos estarían hechos de agua pesada, dotada de unas propiedades físicas y químicas ligeramente distintas de las del agua ordinaria. Aun así, no parece haber ningún impedimento fundamental para que en estos mundos evolucionase alguna forma de materia orgánica. En nuestro mundo, el tercer quark más ligero (el quark extraño) es demasiado pesado para tomar parte en los procesos de física nuclear. Pero si su masa se viese reducida en un factor de más de 10, los núcleos atómicos podrían estar hechos no solo de protones y neutrones, sino también de otros bariones formados por quarks extraños. Por ejemplo, el equipo fue capaz de identificar un universo en el que los quarks arriba y extraño tendrían aproximadamente la misma masa, mientras que el quark abajo sería mucho más ligero. En este caso, los núcleos atómicos no constarían de protones y neutrones, sino de neutrones y de otro barión llamado – («sigma menos»). Sorprendentemente, incluso un universo tan distinto del nuestro tendría formas estables de hidrógeno, carbono y oxígeno: podría haber una química orgánica. No obstante, la pregunta de si tales elementos se generarían en cantidades suficientes como para permitir la aparición de vida sigue sin respuesta. Pero, si se llegase a originar vida, ocurriría de modo muy parecido a como acontece en nuestro universo. Los físicos de un universo tal se sorprenderían de que los quarks arriba y extraño tuviesen masas casi idénticas. Podrían llegar a imaginar, incluso, que esa increíble coincidencia poseía una explicación antrópica basada en la necesidad de una química orgánica. Sin embargo, nosotros sabemos que tal explicación sería
UĄÿČûĈĉo ùċħĄĊÿùo 75
Jugar con la materia Imaginemos la posibilidad de modificar las masas de los quarks ligeros (los que pueden formar bariones estables, como los neutrones y protones). ¿Sería posible obtener los elementos químicos cruciales para la vida tal y como la conocemos? Como mínimo, el universo resultante debería contener núcleos estables de carga eléctrica 1, 6 y 8, ya que son estas cargas las que dotan a los elementos de propiedades similares a las del hidrógeno, el carbono y el oxígeno, respectivamente. He aquí algunos ejemplos de lo que ocurre.
UNIVERSO ALTERNATIVO 4
UNIVERSO ALTERNATIVO 3
UNIVERSO ALTERNATIVO 2
UNIVERSO ALTERNATIVO 1
NUESTRO UNIVERSO
QUARKS LIGEROS
BARIONES ESTABLES
Arriba Abajo Neutrón Protón El quark abajo es el El neutrón es un doble de pesado que el 0,1 % más pesado quark arriba que el protón
Arriba
Neutrón
Abajo
El quark abajo es más ligero
Protón
ELEMENTOS ESTABLES MÁS LIGEROS
QUÍMICA RESULTANTE
Hidrógeno
Carbono 12 El carbono-12 y otros elementos son estables. La vida es posible
Atomo de deuterio
El protón es un 0,1 % más pesado que el neutrón
Carbono 14
El carbono-14 y otros elementos son estables. La vida es posible
Extraño
Arriba
Abajo
Neutrón
Sigma
Hay un quark ligero más (el extraño). El quark abajo es ultraligero
«Hidrógeno-sigma» «Carbono-sigma» Algunos núcleos con carga 6 (es decir, con la misma química que el carbono) y otros núcleos son estables. La vida es posible
Arriba
Delta (carga 2)
«Helio-delta»
Solo hay un quark ligero
«Hidrógeno-sigma»
Extraño
Arriba
Abajo
Tres quarks ultraligeros de aproximadamente la misma masa
76 Tûăaĉ 63
8 tipos diferentes
No hay más elementos estables. El universo no es apto para la vida
Hidrógeno No hay formas estables de carbono ni de oxígeno. El universo no es apto para la vida
incorrecta, dado que en nuestro universo hay química orgánica aunque las masas de los quarks arriba y extraño son muy diferentes. Por otro lado, los universos donde las masas de los tres quarks más ligeros fuesen más o menos iguales no exhibirían seguramente ningún tipo de química orgánica: cualquier núcleo con más de dos unidades de carga eléctrica se desintegraría casi de inmediato. Por desgracia, es muy difícil trazar en detalle las historias de universos cuyos parámetros físicos difieran de los que caracterizan a nuestro universo. Un asunto que merece investigarse más a fondo. EL «PAISAJE» DE LA TEORÍA DE CUERDAS
Algunos físicos teóricos ven en el fenómeno del ajuste fino una prueba indirecta de la existencia del multiverso. De ser así, ¿cuestionan nuestros resultados el concepto de multiverso? Hay dos razones por las que no creemos que haya de ser así. La primera viene de las observaciones combinadas con la teoría. Los datos astronómicos apoyan con solidez la hipótesis de que nuestro universo comenzó siendo una diminuta «parcela» de espaciotiempo, quizá de solo la milmillonésima parte del tamaño de un protón. Tal volumen experimentó posteriormente una fase de rápido crecimiento exponencial, denominada inflación. La cosmología aún no dispone de un modelo teórico definitivo que describa la inflación, pero la teoría sugiere que diferentes «parcelas» podrían haberse hinchado a diferentes ritmos y que cada una podría haber formado una «bolsa», la cual a su vez podría haber llegado a ser un universo en sí mismo, caracterizado por sus propios valores de las diferentes constantes de la naturaleza [véase «El universo inflacionario autorregenerante», de Andrei Linde; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, enero de 1995). El espacio entre esos distintos «universos-bolsa» habría continuado expandiéndose tan rápidamente que resultaría imposible viajar o enviar mensajes desde una «bolsa» a otra ni siquiera a la velocidad de la luz. La segunda razón para sospechar la existencia del multiverso se debe a que sigue quedando una magnitud que sí parece ajustada con una extraordinaria precisión: la constante cosmológica, el parámetro que representa la cantidad de energía contenida en el espacio vacío. La física cuántica predice que incluso el es-
1er Trimestre 2011
SLIM FILMS
U N U N I V E R S O C O N O T R O S Q UA R K S
OTRAS POSIBILIDADES nos parecerían demasiado apuradas para pacio vacío ha de contener energía; por otro ser verosímiles. lado, la teoría general de la relatividad de Argumentos teóricos basados en la teoEinstein implica que toda forma de energía ría de cuerdas (una ampliación especulaes fuente de gravedad. Si la energía del vacío tiva del modelo estándar encaminada a es positiva, provocará una expansión del describir todas las interacciones a partir espacio a un ritmo de aceleración exponenDel vacío primordial podrían surgir de las oscilaciones de cuerdas microscópicial. Si es negativa, el universo debería otros muchos conjuntos de leyes cas) parecen confirmar que la pequeñez de acabar hundiéndose sobre sí mismo en una físicas. En la mayoría de los casos, la constante cosmológica sería muy poco «gran contracción». incluidos los que enumeramos frecuente en el multiverso. Sostienen que, La teoría cuántica parece implicar que abajo, se desconoce si los universos durante la inflación, la constante cosmola constante cosmológica (positiva o negaresultantes serían habitables. Las lógica y los demás parámetros podrían tiva) ha de ser tan grande que, o bien el esinvestigaciones futuras quizás arrohaber tomado un rango virtualmente ilipacio debería haberse expandido con suma jen luz sobre el asunto. mitado de valores diferentes, lo que se ha celeridad y, por consiguiente, las estructudado en llamar el «paisaje» de la teoría de ras cósmicas (las galaxias mismas) no haUn universo de helio cuerdas [véase «El paisaje de la teoría de brían tenido tiempo de formarse, o bien el Algunas modificaciones en un universo sin cuerdas», de Raphael Bousso y Joseph Poluniverso debería haber existido solo duinteracción débil producirían un mundo casi chinski; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, noviemrante una fracción de segundo antes de cosin hidrógeno tras la gran explosión. Las bre de 2004]. lapsar. estrellas estarían hechas en su mayor parte Sin embargo, nuestro trabajo sí arroja Una forma de explicar la manera en la de helio. algunas dudas en cuanto a la utilidad del que nuestro universo evitó esos desastres Multiquarks razonamiento antrópico, al menos más allá consiste en presuponer la existencia de alEn nuestro universo, las partículas están del caso de la constante cosmológica. Tamgún término adicional en las ecuaciones que formadas por dos o tres quarks, pero en bién suscita importantes preguntas. Por cancele los efectos de la constante cosmootros universos podrían constar de cuatro, ejemplo: si la vida es realmente posible en lógica. El problema es que el término en cinco o más. un universo sin interacción débil, ¿por qué cuestión debería hallarse finamente ajushay interacción débil en nuestro universo? tado con una precisión extraordinaria. Una Dimensiones extra La verdad es que los físicos de partículas pequeña variación incluso en la centésima Según la teoría de cuerdas, el espacio tiene consideran que, en cierto sentido, la intenueve dimensiones más el tiempo. En cifra después de la coma decimal conducinuestro universo, todas, salvo tres, habrían racción débil no es en nuestro universo lo ría a un universo sin ninguna estructura rede estar enrolladas o ser, de algún modo, bastante débil. El valor observado de su inlevante. «invisibles». ¿Qué pasaría si cuatro o más tensidad parece anormalmente grande en En 1987, Steven Weinberg, premio nódimensiones fueran visibles? el contexto del modelo estándar. (La explibel y físico teórico de la Universidad de cación principal de este misterio requiere Texas en Austin, propuso una explicación la existencia de nuevas partículas que se antrópica para este fenómeno. Calculó el valor máximo de la constante cosmológica compatible con la espera poder descubrir en el Gran Colisionador de Hadrones vida. Para cualquier valor mayor, el espacio se habría expan- del CERN, cerca de Ginebra.) Como resultado, muchos teóricos esperan que una gran dido tan rápidamente que el universo carecería ahora de las estructuras necesarias para originar vida. Así, en cierto modo, mayoría de los universos cuente con interacciones débiles nuestra sola existencia predice ya el bajo valor de la constan- tan poco intensas que, a todos los efectos, sería como si no existiesen. Así, el verdadero problema quizás estribe en trate cosmológica. A finales del decenio de los noventa, los astrónomos descu- tar de explicar por qué vivimos en un universo con interacbrieron que el universo se expandía a un ritmo acelerado, em- ción débil. Finalmente, solo una comprensión más profunda de pujado por una forma misteriosa de «energía oscura». La tasa cómo nace un universo podría responder tales preguntas. En de expansión observada implicaba que la constante cosmológi- particular, podríamos descubrir principios físicos aún más funca era positiva y muy pequeña (dentro de los límites estableci- damentales que explicasen por qué la naturaleza prefiere cierdos por Weinberg), lo que a su vez entrañaba una densidad de tos conjuntos de leyes a otros. Puede que nunca encontremos ninguna prueba directa de la energía oscura muy baja. Así pues, el valor de la constante cosmológica parece estar existencia de otros universos, y lo que sí es seguro es que nunajustado con un grado de precisión excepcional. Por otra par- ca conseguiremos visitar ninguno de ellos. Pero puede que nete, los métodos que nuestros equipos han aplicado a la interac- cesitemos aprender más sobre ellos, si queremos entender cuál ción nuclear débil y a las masas de los quarks parecen fallar en es nuestro verdadero papel en el multiverso... o lo que quiera este caso, dado que se muestra imposible encontrar universos que en realidad haya. habitables en los que el valor de la constante cosmológica sea significativamente mayor que el valor observado. En un multiPA R A S A B E R M Á S verso, la gran mayoría de los universos tendría una constante cosmológica cuyo valor resultaría incompatible con la forma- A designer universe? Steven Weinberg en Conference on Cosmic Design of the American Association for the Advancement of Science, Washington D.C., abril de 1999. ción de cualquier tipo de estructura. o Es como si se enviaran a miles de personas a cruzar un de- Universos paralelos. Max Tegmark en Investigación y Ciencia, n. 322, julio de 2003. A universe without weak interactions. Roni Harnik, Graham D. Kribs y Gilad Pérez en Physierto montañoso. Los pocos capaces de acabar tal proeza con sical Review D, vol. 74, n.o 3, págs. 035006-1- 035006-15, agosto de 2006. vida volverían contando historias emocionantes, encuentros con Quark masses: an environmental impact statement. Robert L. Jaffe, Alejandro Jenkins e Itaserpientes venenosas y experiencias al borde de la muerte que mar Kimchi, en Physical Review D, vol. 79, n.o 6, págs. 065014-1-065014-33, marzo de 2009.
¿Hay alguien ahí?
InvestigacionyCiencia.es
UĄÿČûĈĉo ùċħĄĊÿùo 77
Artículo publicado en Investigación y Ciencia, n.o 408
IMPLIC ACIONE S COSMOLÓGIC A S
¿Es la teoría de cuerdas una ciencia? Los críticos la acusan de hacer afirmaciones que escapan a toda verificación empírica. Es posible que su desarrollo obligue a un cambio paulatino de paradigmas en la física Dieter Lüst EN SÍNTESIS
Aceptar la idea de un multiverso supone renunciar al principio de falsabilidad de Karl Popper. El principio antrópico, en cambio, explicaría por qué en nuestro universo las constantes de la naturaleza son tales que permiten la existencia de vida.
Otras predicciones de la teoría sí resultan falsables. Entre ellas se encuentra la existencia de las dimensiones espaciales adicionales que exige la teoría de cuerdas.
XXXXXXXX
La teoría de cuerdas parece requerir la existencia de numerosos universos. Sin embargo, la verificación experimental de la existencia de esos mundos se antoja imposible.
78 Tûăaĉ 63
1er Trimestre 2011
S
ÿ øÿûĄ aĂýċĄa ČûĐ ûĂ ĉûĈ þċăaĄo üċû ùoĄĉÿúûĈaúo el culmen de la creación, en los últimos siglos ha ido perdiendo posiciones. Primero fue Copérnico quien lo expulsó del centro del universo. Después, Charles Darwin lo devolvió al mundo animal. Hoy sabemos que nuestro sistema solar no ocupa más que un insignificante rincón en la Vía Láctea, una galaxia común. Y, por si fuera poco, algunos físicos teóricos afirman que nuestro universo quizá no sea sino uno más entre innumerables mundos paralelos. Según la teoría de cuerdas, esos otros universos presentarían características diferentes al nuestro: albergarían otro tipo de partículas elementales, se regirían por otras fuerzas fundamentales y, con gran probabilidad, en muy pocos de ellos habría observadores que se cuestionasen la estructura del cosmos. Ahora bien, si preguntamos a los teóricos de cuerdas cuándo podremos observar dichos universos, nos responderán que el asunto se muestra más que difícil. De manera sorprendente, y a pesar de tales afirmaciones, para algunos la teoría no parece perder un ápice de credibilidad. Es más: se halla implantada con tal firmeza que, para la mayoría de los físicos teóricos, constituye la principal candidata a convertirse en la ansiada «teoría del todo». Según la teoría de cuerdas, los constituyentes fundamentales del universo no son partículas, sino minúsculos objetos unidimensionales que podemos imaginar como «cuerdas» en vibración. Los modos de vibración (las notas, si hablásemos de un instrumento musical) se manifestarían como diferentes partículas elementales. Si en realidad el mundo se compone de cuerdas, es posible que, algún día, la teoría llegue a describir todos los fenómenos físicos no solo de nuestro universo, sino también de otros.
¿UNA RENUNCIA SIN CRÍTICA?
Pero, ¿cómo es posible que haya físicos que, sin crítica alguna, renuncien a aplicar el criterio de falsabilidad exigido por Karl Popper (1902-1994) a toda teoría física? ¿Cómo pueden tomar en serio conclusiones a las que solo se llega mediante el formalismo matemático y nunca a través de la observación de la naturaleza? La respuesta reside, sobre todo, en el enorme potencial de la teoría. La teoría de cuerdas ha sido la primera en poner bajo un mismo techo la gravedad y las fuerzas electromagnética, fuerte y débil. Hasta ahora, la gravedad quedaba descrita por la teoría de la relatividad general. Esta, en gran acuerdo con las observaciones, permite calcular procesos ocurridos incluso pocos instantes después de la gran explosión. También permite predecir el destino de nuestro universo en un futuro lejano. Las otras tres fuerzas se hallan integradas en el modelo estándar de la física de partículas. El mismo se fundamenta en las leyes de la mecánica cuántica, formuladas durante el primer tercio del siglo ĎĎ. De acuerdo con lo exigido por Popper, ambas teorías realizan predicciones falsables. Cada una de ellas es válida dentro de un amplio dominio. No obstante, es un hecho que ambas son mutuamente excluyentes. Esto se pone de manifiesto al considerar condiciones físicas extremas, como las que se dan a escalas diminutas o en el interior de los agujeros negros. Así, la física teórica se encuentra ante una disyuntiva, ya que su objeto consiste en hallar, de manera reduccionista, un principio común a todos los contextos físicos. Por su parte, la teoría de cuerdas, cuyos orígenes se remontan al decenio de los años sesenta del siglo pasado, cree haber encontrado dicho principio. Gracias a ella, el camino hacia una descripción unificada de las cuatro fuerzas fundamentales se antoja más transitable.
XXXXXXXX
Según la teoría de cuerdas, nuestro universo podría ser solo uno de tantos. Es probable que tales universos nunca lleguen a entrar en contacto unos con otros, por lo que su existencia resultaría imposible de demostrar.
InvestigacionyCiencia.es
UĄÿČûĈĉo ùċħĄĊÿùo 79
Hasta ahora, el modelo estándar ha resistido todas las exigencias impuestas por el principio de falsabilidad. Sin embargo, existen en dicho modelo numerosos parámetros libres, como las masas de las partículas elementales o la constante que rige la intensidad de la interacción electromagnética: el modelo estándar no dice nada sobre por qué su valor es el que observamos y no otro. Pero se cree que la teoría de cuerdas logrará, algún día, predecir dichas magnitudes; algo que, sin duda, cimentaría con gran solidez su estatus de teoría fundamental. Sin embargo, cada vez se alzan más voces críticas. Desde luego, quien no renuncie al principio de falsabilidad de Popper nunca podrá comulgar con la teoría de cuerdas. En particular, la teoría predice la existencia de dimensiones extra, que añaden seis dimensiones espaciales al espaciotiempo de cuatro dimensiones que nos es dado percibir [véase «Dimensiones extra», por George Musser; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, agosto de 2010]. Pero es posible que no lleguemos a observar dichas dimensiones. A ello hay que sumar los universos paralelos. De hecho, la teoría de cuerdas no solo admite la existencia de múltiples universos, sino que, además, parece exigirlos. Sin embargo, la teoría carece de toda demostración de la existencia de esos mundos adicionales. Es por ello que sus detractores acusan a la teoría del multiverso de hacer, más que física, metafísica. Ante tal dilema, nos enfrentamos a un cambio de paradigma que lleva sugiriéndose desde hace años: el referente a las exigencias que debe satisfacer cualquier teoría física. Ello implica cuestionar el principio de falsabilidad de Popper y recurrir a otros argumentos filosóficos, como el principio antrópico. Desde cierto punto de vista, la teoría de cuerdas constituye una teoría en el mismo sentido en que lo son el modelo estándar o la relatividad: se basa en un conjunto de ecuaciones que determinan magnitudes físicas, como la energía del vacío. Y como rasgo particular, difiere de las teorías ya establecidas y exige, por razones de consistencia matemática, que el mundo posea nueve dimensiones espaciales y una temporal. Hacia mediados de los años ochenta se confirmó que, en un espaciotiempo de 10 dimensiones, resulta posible formular hasta cinco teorías de cuerdas diferentes, cada una de ellas con el mismo potencial para describir nuestro mundo. Semejante pro-
liferación era todo menos deseable, ya que la candidata a una teoría unificada debía ser, además, única. Sin embargo, en los años siguientes se avistó una solución al problema: las cinco teorías de cuerdas podían interpretarse como límites matemáticos de una teoría única, a la que dio en llamarse «teoría M». Esta notable circunstancia dio alas a los físicos teóricos. ¿Podría la teoría de cuerdas hacer predicciones unívocas sobre nuestro universo a partir de un conjunto de ecuaciones fundamentales? ¿Sería posible calcular, a partir de ella, las constantes fundamentales de la naturaleza y describir el espectro de partículas elementales que conocemos? Sin embargo, el resultado fue otro. A día de hoy solo estamos capacitados para describir nuestro mundo de 4 dimensiones si 6 de las dimensiones espaciales extra adoptan una configuración compacta (finita) y muy pequeña. En cada punto del espaciotiempo de 4 dimensiones que conocemos, «cuelga» un espacio de 6 dimensiones espaciales compactas y diminutas. Si bien estas han de ser lo bastante pequeñas como para explicar que no podamos observarlas ni acceder a ellas, su efecto sobre la física en 4 dimensiones es considerable: en función del tipo de compactación, o «compactificación» (según la geometría que exhiba ese espacio de 6 dimensiones) el universo emergente de 4 dimensiones posee más o menos partículas elementales y se rige por unas interacciones fundamentales u otras. Es en este punto donde la teoría de cuerdas pierde su carácter unívoco. Ello se debe a que, siempre que una teoría física permite más de una solución, hemos de aceptar que cada una de esas soluciones cuenta con una probabilidad de realizarse físicamente o, en su defecto, debemos explicar por qué ese no es el caso. Contra todas las expectativas, resulta que existe un número exorbitante de espacios compactados que aparecen como soluciones de la teoría de cuerdas. Unas mismas ecuaciones permiten un número enorme de universos posibles, cada uno con diferentes propiedades. Según la teoría de cuerdas, cada uno de ellos describe de manera correcta lo que llamamos un «vacío» de la teoría, un estado fundamental válido. Pero ninguna de esas soluciones destaca sobre el resto; ninguna nos da motivo alguno para preferirla frente a las demás. Carecemos de un principio de selección. No podemos argumentar por qué justo nuestro universo (una solución entre otras muchas) debería ser real y el resto no. ¿Existe, pues, más de un universo?
La teoría de cuerdas se basa en el postulado de que los constituyentes fundamentales de la materia no son partículas, sino «cuerdas»: pequeños objetos unidimensionales. Las diferentes partículas elementales que conocemos serían los distintos modos de vibración de esas cuerdas, cuyo tamaño se estima en unos 10–35 metros.
El conjunto de todas las soluciones posibles de las ecuaciones de la teoría constituye lo que los físicos han bautizado como «paisaje» [véase «El paisaje de la teoría de cuerdas», por R. Bousso y J. Polchinski; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, noviembre de 2004]. Semejante paisaje teórico resulta, desde luego, un espacio extremadamente abstracto. Su nombre obedece a que, en
PREDECIR EN VEZ DE MEDIR
KRISTIN RIEBE/SPEKTRUM DER WISSENSCHAFT
VIVIR EN UNA DEPRESIÓN
80 Tûăaĉ 63
1er Trimestre 2011
KRISTIN RIEBE/SPEKTRUM DER WISSENSCHAFT
una escala de energías adecuada, resulta posible imaginar ese espacio como una colección de montañas, colinas, valles y depresiones. Los últimos corresponderían a universos con una energía del vacío muy pequeña, y las cumbres, a universos con una alta energía potencial. Nuestro universo se hallaría en una depresión, es decir, un estado fundamental con una energía del vacío muy baja. De hecho, nuestros cosmólogos ya han medido tal valor [véase «Cuestiones fundamentales de cosmología», por P. Schneider; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, junio de 2010]. La representación de las soluciones de una teoría mediante cumbres y valles energéticos de diferentes alturas no es nada nuevo. Este método se emplea a menudo en física del estado sólido, donde la descripción de sistemas muy complejos requiere ecuaciones que permiten un gran número de soluciones. De ellas, o bien todas se realizan o, al menos, todas cuentan con una posibilidad de hacerlo. Un buen ejemplo lo constituyen los estados de agregación del agua (sólido, líquido o vapor). Aun así, la teoría de cuerdas va más allá. A diferencia de la física de materiales, que describe los estados de un cuerpo en un mismo universo, la teoría de cuerdas asigna un universo diferente a cada estado fundamental. La sorpresa fue aún mayor cuando se descubrió que la teoría de cuerdas no solo permite la existencia de unos pocos valles y colinas, sino la de un número casi inconmensurable de ellos. Algunas estimaciones arrojan resultados de entre 10100 y 101000 mundos posibles; números que superan con creces la cantidad de átomos en nuestro universo (del orden de 1080). Por si fuera poco, el paisaje de la teoría de cuerdas se halla sujeto a un constante cambio. Las ecuaciones que describen su comportamiento permiten la posibilidad de transiciones espontáneas. Los universos pueden, a través de diferentes procesos, ganar energía potencial y elevarse desde un valle hacia una colina. Una vez en una cumbre, su tendencia natural es caer hacia un valle o, lo que es lo mismo, a un estado de menor energía (al igual que en la física clásica, los estados con una baja energía potencial son más probables que aquellos con una energía alta). Durante una transición entre dos niveles energéticos, el propio universo sufre transformaciones que, bajo determinadas circunstancias, son tan radicales que se podría hablar del nacimiento de un nuevo universo. Es probable que la gran explosión de nuestro universo no fuese más que su transición desde un estado energético superior hacia un valle energético. Parece que debemos concluir que la búsqueda de una «teoría del todo» que describa un universo único y que haga predicciones sobre todos los experimentos futuros ha sido demasiado ingenua. La misma idea de un multiverso, que implica un gran número de constantes e incluso leyes de la naturaleza, despoja a la física de una gran parte de su capacidad predictiva. Diríase que la teoría de cuerdas predice todo y, como corolario de ello, nada al mismo tiempo. Es más. Dentro del paisaje de la teoría de cuerdas, resulta harto complicado rastrear qué solución representa nuestro propio universo; es decir, cuál describe nuestro espectro de partículas elementales y sus interacciones fundamentales. Y, aunque desde hace poco se han multiplicado las señales que indican que la tarea de encontrar nuestra particular aguja en semejante pajar podría tener éxito, los físicos han de preguntarse si es lícito hablar de «ciencia» cuando una teoría no hace predicciones unívocas, ni contrastables, ni falsables. Dicha pregunta suscitó hace algunos años un verdadero debate. Los ataques más feroces a la teoría de cuerdas se lanzan contra sus afirmaciones indemostrables acerca de un número
InvestigacionyCiencia.es
En el «paisaje» de la teoría de cuerdas los universos con mayor energía del vacío se representan como colinas. Los valles, por el contrario, se corresponderían con universos con una pequeña energía del vacío, como es el caso del nuestro.
indeterminado de universos, así como contra su incapacidad para explicar por qué las constantes y las interacciones de la naturaleza son tal y como las conocemos. A este respecto, la comunidad científica se ha dividido en tres corrientes de opinión. Una de ellas rechaza por principio la idea del multiverso. Sus partidarios creen en un único universo real que debe quedar descrito por una única teoría. David Gross, premio nóbel y descubridor de dos de las cinco teorías de cuerdas en 10 dimensiones, dijo una vez: «¿La idea del paisaje? ¡La odio! ¡Nunca os rindáis ante ella!». Otro grupo de físicos acepta que existan varias posibilidades para describir un universo, pero considera dichas reflexiones un mero divertimento matemático. Sus defensores buscan un principio de selección que privilegie a nuestro universo frente a las restantes soluciones de la teoría de cuerdas. Suponen —o al menos esperan— que, algún día, la teoría será capaz de explicar por qué nuestro universo es tal y como lo observamos. Por último, existe un tercer grupo que acepta la idea de una multitud de universos como algo que en realidad existe. Fundamentan su postura en el principio antrópico. Dicho principio fue introducido por Brandon Carter en cosmología para explicar por qué surgió vida inteligente en el universo, si bien tal acontecimiento parece del todo improbable [véase «Buscando vida en el multiverso», por A. Jenkins y G. Pérez, en este mismo número]. Afirma que el universo en el que vivimos ha de ser el adecuado para el desarrollo de vida inteligente porque, de otro modo, no existiríamos para observarlo. Una variante de este principio asegura que pueden existir multitud de universos, pero que no deberíamos asombrarnos de vivir justo en el nuestro, ya que es este el que proporciona las condiciones para la existencia de vida inteligente. Numerosos físicos rechazan el principio antrópico. Según ellos, no posee capacidad predictiva alguna, ya que de él no puede deducirse ningún valor para magnitudes físicas concretas ni explica ninguna característica de la naturaleza. Opinan que los teóricos de cuerdas no deberían hacer un mal uso del principio antrópico para justificar sus innumerables soluciones. Más bien, deberían intentar obtener una única solución, un único universo que se parezca al nuestro.
UĄÿČûĈĉo ùċħĄĊÿùo 81
LA EXPLICACIÓN DE UN MILAGRO APARENTE
En opinión del autor, el principio antrópico representa algo más que una argucia filosófica o una excusa. De hecho, en el ámbito de la teoría de cuerdas, soluciona dos viejos problemas de la física: por qué las leyes físicas son las que observamos y por qué las constantes de la naturaleza parecen estar ajustadas con tanta exactitud para permitir la existencia de vida tal y como la conocemos. En ambos casos, el principio antrópico se apoya en la ley de los grandes números: en una muestra lo bastante grande tomada al azar, todo evento posible ha debido ocurrir en algún lugar. Así, todas las posibles leyes de la naturaleza han cobrado forma en sus respectivos universos; sin embargo, los observadores solo existen en un universo favorable a la vida. En lo que respecta a las constantes de la naturaleza, tal razonamiento resulta especialmente poderoso. En un multiverso, el principio antrópico logra explicar el excepcional ajuste fino del que hace gala nuestro universo; es decir, el aparente «milagro» que permite nuestra existencia, a pesar de que una mínima variación de las constantes de la naturaleza habría impedido la aparición de vida. El gran número de combinaciones posibles en el multiverso también debió haber engendrado nuestra diminuta «ventana de constantes»; así pues, no tendríamos que sorprendernos de estar observándola ahora mismo. Además, nuestra ventana de constantes se torna estadísticamente necesaria. Ello aumenta el valor científico del razonamiento antrópico, ya que libera a nuestro cosmos de la mácula de ser un fenómeno curioso, ajustado al milímetro por la razón que sea. A pesar de todo, argumentar con ayuda del principio antrópico resulta insatisfactorio, pues supone aceptar el paso atrás de una teoría que, quizás, hubiera podido proporcionar explicaciones y predicciones claras sobre el mundo. Pero esto no tiene por qué ser siempre así, máxime si convenimos en que toda teoría requiere una confirmación, aunque sea parcial. Para escapar del dilema de los múltiples tipos de compactación, desde hace poco los expertos persiguen una nueva estrategia que se ofrece prometedora: se consideran diferentes categorías de compactación a cuatro dimensiones con el fin de averiguar si poseen «buenas» propiedades físicas. En particular, se estudian qué clases de compactación contienen el modelo estándar o implican la inflación cósmica (la fase de expansión exponencial que, según todos los indicios, sufrió nuestro universo poco después de la gran explosión). En segundo lugar, se investiga si dichas compactaciones poseen propiedades comunes que permitan derivar de ellas nuevas predicciones verificables empíricamente. Dichas cuestiones parecen estar al alcance de ciertas clases de compactación muy estudiadas en el último decenio, los «modelos de intersección de branas». En dichos modelos, la interacción gravitatoria se describe a partir de los estados de vibración de cuerdas cerradas (aquellas cuyos extremos se hallan unidos), mientras que el resto de las interacciones, como la electromagnética, proceden de los modos de vibración de cuerdas abiertas. Los extremos de las cuerdas abiertas se encuentran «pegados» a branas (planos multidimensionales en el espaciotiempo de diez dimensiones) que se intersecan en el espacio compacto de las seis dimensiones extra. Los modelos de intersección de branas se muestran muy apropiados para reproducir el modelo estándar de partículas elementales. En particular, permiten asombrosas predicciones sobre los futuros experimentos en el Gran Colisionador de Ha-
82 Tûăaĉ 63
drones (LHC) del CERN. Para poder observar dichas predicciones dentro de la escala de energías a la que operará el LHC, un requisito fundamental es que el espacio compacto sea relativamente grande. Tales escenarios con dimensiones extra de gran tamaño (del orden 10–3 milímetros) han sido estudiados por Nima Arkani-Hamed, Savas Dimopoulos y Georgi Dvali [véase «Nuevas dimensiones para otros universos», N. Arkani-Hamed, S. Dimopoulos y G. Dvali; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, octubre de 2000]. De ser el caso, al menos esta clase de modelos de cuerdas sí sería falsable y verificable en un experimento. Por otra parte, tales modelos guardan una estrecha relación con la posibilidad de generar agujeros negros microscópicos en el LHC, algo que abre más oportunidades para su contrastación empírica. COSMOLOGÍA Y TEORÍA DE CUERDAS
Hemos de reconocer que, a día de hoy, la posibilidad de observar efectos de teoría de cuerdas en el LHC es especulativa, ya que se basa en algunas suposiciones optimistas, como la relativa a la existencia de dimensiones extra de gran tamaño. No existe ninguna razón para que deba ser así. Sin embargo, quizás en el futuro las observaciones cosmológicas también verifiquen aspectos de la teoría, dado que la estructura del espacio compacto podría acarrear consecuencias medibles sobre la radiación del fondo cósmico de microondas. Además, los nuevos descubrimientos sobre la materia y energía oscuras o las ondas gravitacionales prometen más opciones de someter a la teoría de cuerdas a verificaciones experimentales. A la vista de que algunas afirmaciones de la teoría sí son contrastables, y dado el valor científico del principio antrópico a la hora de explicar el valor de las constantes de la naturaleza, el autor se halla convencido de que la física teórica actual sigue constituyendo una ciencia exacta de la naturaleza. La teoría se hace preguntas físicas, busca su respuesta y no ha perdido de ninguna manera su contacto con el experimento, lo que implica su falsabilidad en un amplio dominio. Además, posee una competidora en la teoría conocida como gravedad cuántica de bucles [véase «Átomos del espacio y del tiempo», por L. Smolin; IĄČûĉĊÿýaùÿĶĄ ď CÿûĄùÿa, marzo de 2004], frente a la cual debe aún demostrar sus ventajas. Sin embargo, quien acepte la teoría del multiverso no logrará apartar la idea de que la misma devuelve un papel protagonista al hombre después de que Copérnico y Darwin se lo arrebataran. Pues, según esta teoría, el hombre no es solo el afortunado retoño de un universo por lo demás casi despoblado, sino que representa, tal vez, un caso excepcional y extremadamente improbable de un observador inteligente en medio de un paisaje de universos. Ello hace del fenómeno de la vida algo aún más preciado de lo que ya es de por sí.
PA R A S A B E R M Á S
Intersecting brane worlds: A path to the standard model? D. Lüst en Classical and Quantum Gravity, vol. 21, págs. 1399-1424, 20 de abril, 2004. Salir de la oscuridad. G. Dvali en Investigación y Ciencia, págs. 66-73, abril de 2004. Las dudas de la física en el siglo XXI: ¿Es la teoría de cuerdas un callejón sin salida? L. Smolin. Editorial Crítica, 2007. The landscape of string theory. D. Lüst en Fortschritte der Physik, vol. 56, n.o 7-9, págs. 694722, agosto de 2008. The LHC string hunter’s companion. D. Lüst et al. en Nuclear Physics B808, págs. 139-200, febrero de 2009. Muchos mundos en uno: La búsqueda de otros universos. A. Vilenkin. Alba Editorial, 2009.
1er Trimestre 2011
KEITH PETERS
Futuro
Artículo publicado en Investigación y Ciencia, n.o 397
FUTURO
La teoría de cuerdas y el LHC La teoría de cuerdas es la candidata más firme a teoría unificada de las interacciones de la naturaleza. El Gran Colisionador de Hadrones podría dar importante información experimental sobre su validez Luis E. Ibáñez
Según la teoría de cuerdas, las partículas fundamentales del modelo estándar serían vibraciones de energía de cuerdas abiertas de muy pequeño tamaño, mientras que la gravitación surgiría de las vibraciones de cuerdas cerradas. ¿Existe alguna posibilidad de comprobar esta hipótesis en un acelerador de partículas?
84 Tûăaĉ 63
La consistencia matemática de la teoría de cuerdas requiere que cumpla una propiedad: la supersimetría. Esta despeja también problemas del modelo estándar relativos a la partícula de Higgs, que dota de masa al resto de partículas elementales.
La supersimetría predice la existencia de una serie de partículas; entre ellas, los neutralinos, cuya existencia se manifestaría por una aparente no conservación de la energía. Su detección en el LHC del CERN sería un indicio de la validez de la teoría de cuerdas.
1er Trimestre 2011
CMS-CERN
EN SÍNTESIS
Se suele suponer que la teoría de cuerdas no se podrá comprobar en un acelerador de partículas porque las energías a las que la estructura de cuerdas de la materia se manifestaría son demasiado altas. Si se cumpliesen ciertas condiciones, sin embargo, caerían quizá dentro de lo que el nuevo Gran Acelerador de Ha-
L
a øİĉćċûúa úû Ăoĉ ùoĄĉĊÿĊċďûĄĊûĉ İĂĊÿăoĉ úû la materia ha significado una de las aventuras intelectuales más importantes del siglo xx. En el pasado siglo se construyeron los tres pilares básicos de la física moderna: la mecánica cuántica, la teoría de la relatividad y la gravitación de Einstein. Se descubrió también la existencia de cuatro interacciones fundamentales en la naturaleza: fuerzas nucleares débiles fuertes, la interacción electromagnética y la gravitatoria. El denominado modelo estándar de la física de partículas describe de forma satisfactoria, combinando mecánica cuántica y relatividad, todos los resultados experimentales relativos a las interacciones fuertes, débiles y electromagnéticas. Y no solo eso. En cosmología, la teoría de la gran explosión, basada en la gravitación de Einstein, permite entender un buen número de las propiedades observadas en el universo.
InvestigacionyCiencia.es
drones (LHC) del CERN alcanzará. Pero aunque no fuera así, el descubrimiento de una nueva clase de partículas, las partículas supersimétricas, respaldaría en parte la validez de la teoría de cuerdas. En estas fotografías se ve uno de los detectores del LHC, el Solenoide Compacto de Muones.
LO QUE YA SABEMOS
Recordemos que la materia está constituida por partículas llamadas fermiones, que son de dos tipos, quarks (que interaccionan fuertemente) y leptones (que no interaccionan fuertemente). La materia usual, la que conocemos en la experiencia cotidiana, está constituida exclusivamente por dos tipos de quarks, arriba y abajo, y dos tipos de leptones: el electrón y su neutrino e. Todo lo que observamos (incluyéndonos nosotros mismos) está formado por esos ingredientes. Estas cuatro partículas forman lo que se llama la «primera generación» de quarks y leptones. Además, existe una segunda generación (los quarks c y s; el muon y su neutrino ) y una tercera (quarks t y b; el y su neutrino ). Estas dos últimas generaciones son partículas inestables y solo se han detectado por producción en aceleradores, o bien (algunas de ellas) en rayos cósmicos que chocan contra la Tierra. De resultados obtenidos en aceleradores o de tipo cosmológico parece seguirse que solo existen estas tres generaciones de
UĄÿČûĈĉo ùċħĄĊÿùo 85
Partícula + Armónicos
+ Energía
partículas. Además, se sabe que las tres generaciones son elementales en el sentido de que no están compuestas por partículas más fundamentales, al menos según cabe discernir con la precisión de los aceleradores actuales. Estos componentes fundamentales de la materia interaccionan por el intercambio de los bosones intermediarios. El más conocido de ellos es el fotón, que media la interacción electromagnética, mientras que la interacción fuerte es mediada por los gluones. Finalmente los bosones W, Z son los causantes de la fuerza débil. A estos tres tipos de bosones intermediarios hay que añadir el gravitón, que es el causante de las interacciones gravitacionales. Decíamos que solo hay cuatro interacciones fundamentales en la naturaleza. Sin embargo, esto no es del todo cierto. Si así fuera, el modelo estándar describiría un universo muy poco parecido a lo observado (de hecho, no estaríamos aquí para poder contemplarlo). El modelo estándar incluye una nueva partícula vital para que las partículas tengan masas no nulas, el llamado bosón de Higgs, H. La peculiaridad de esta partícula es que tiene un efecto de frenado sobre todas las partículas; sus efectos se extienden por todo el espacio, dando lugar a la inercia o masa de todas ellas. La existencia de esta partícula no ha sido verificada todavía experimentalmente. Su búsqueda es uno de los motivos principales para el experimento LHC en el CERN. LO QUE QUEREMOS SABER
A pesar del éxito del modelo estándar en su explicación del universo observado, quedan muchas preguntas sin respuesta. La misma estructura del modelo estándar es un poco chocante: ¿por qué existen tres generaciones de quarks y leptones? Si con la primera generación basta para construir toda la materia observada, ¿por qué tal dispendio por parte de la naturaleza? ¿Por qué hay cuatro interacciones fundamentales en la naturaleza y no más o menos? ¿Y por qué unas son mucho más fuertes que otras? ¿Cuál es el origen de este sector extraño de la teoría, el bosón de Higgs, necesario para la generación de las masas y de naturaleza tan especial? E incluso cuestiones más básicas como: ¿Por qué existen tres dimensiones espaciales y una temporal, y no más o menos? ¿Es el espaciotiempo un concepto fundamental de la teoría o un concepto derivado? A todas estas y otras muchas preguntas se suma uno de los problemas que se ha revelado más difícil de resolver. Mientras que para las interacciones fuertes, débiles y electromagnéticas Cuerdas abiertas
Quarks, leptones, gluones, W W, Z, gluones Z fotón
86 Tûăaĉ 63
Cuerda Cuerdas dass cerrad cerradas a as
Gravitón
existe un formalismo relativista y cuántico a la vez (la llamada teoría cuántica de campos), no acontece así con la gravitación. A fecha de hoy, no existe una teoría cuántica de la gravitación coherente en todos sus extremos. Efectivamente, a diferencia de las otras tres interacciones fundamentales, la teoría de la gravitación presenta inconsistencias en el nivel cuántico. Cálculos en teoría cuántica de campos que involucran la gravitación dan resultados numéricamente infinitos de difícil interpretación física. Se dice que la teoría es «no renormalizable». Este problema parece necesitar una revisión de algunos puntos de vista básicos de la física del siglo ĎĎ. Muchos piensan que hay que abandonar la idea de que los constituyentes fundamentales de la materia son partículas carentes de estructura interna. Es el carácter estrictamente puntual que la teoría supone para las partículas lo que parece dar lugar a los infinitos. De esta idea fundamental parten las teorías de cuerdas. POR QUÉ LAS CUERDAS
Las teorías de cuerdas tienen como premisa que, a muy altas energías, las partículas no son puntuales, sino que tienen estructura de cuerda. Para «estirar» los extremos de la cuerda y ver la estructura extensa de una partícula se necesitaría una enorme energía. Las partículas observadas corresponderían a los modos de vibración más ligeros de la cuerda, que son los observados experimentalmente. En este esquema hay potencialmente una total unificación: todas las partículas son diferentes «notas» de un solo «instrumento», la cuerda. Una de las propiedades más interesantes de la teoría de cuerdas es que predice la existencia de una partícula, de un bosón intermediario sin masa que se acopla universalmente a toda forma de materia: el gravitón. Se puede decir que la consistencia de la teoría requiere la existencia de la gravitación. Por otra parte, mientras que las partículas del modelo estándar se asocian con los modos más ligeros de cuerdas abiertas, el gravitón aparece como el estado de vibración más ligero de la cuerda cerrada. Otra propiedad a resaltar es que el carácter extenso (no puntual) de las cuerdas hace que desaparezcan los infinitos cuando se combinan gravitación y mecánica cuántica. Todos los cálculos en la teoría dan resultados finitos. Se trata del aspecto más interesante de la teoría: las de cuerdas son las primeras teorías encontradas que compatibilizan en principio mecánica cuántica y gravitación. Para ello se requiere que las cuerdas gocen de una propiedad, la de supersimetría, que da nombre a las «teorías de supercuerdas»; de la propiedad en cuestión nos ocuparemos más adelante. Hay un ingrediente bastante exótico en la teoría de cuerdas: esta se define de forma natural con seis dimensiones espaciales extra. Es decir, requiere que haya en principio nueve dimensiones espaciales y una temporal. La idea de la posible existencia
Las vibraciones menos energéticas de las cuerdas abiertas dan lugar a la materia habitual: quarks, leptones y bosones intermediarios. Las vibraciones de las cuerdas cerradas sobre sí mismas dan lugar al gravitón, es decir, a la interacción gravitacional.
1er Trimestre 2011
CORTESÍA DEL AUTOR
Partícula
Al comunicar una energía muy grande a una partícula aparentemente puntual se revelaría su estructura de cuerda. Las vibraciones más ligeras corresponden a la partícula, mientras que las vibraciones de mayor frecuencia, los armónicos, tienen una masa muy grande y no son observables a bajas energías.
de dimensiones físicas adicionales no constituye ninguna novedad. Propuesta en 1921 por Teodoro Kaluza, fue elaborada por Oscar Klein en 1926. ¿Por qué no se ha visto hasta ahora la existencia de dimensiones extra? De acuerdo con la explicación de Kaluza y Klein, las dimensiones extra están curvadas sobre sí mismas en un círculo de radio R extremadamente pequeño. En tal caso, las partículas habituales serían las únicas que observaríamos experimentalmente en la vida corriente. Por otra parte, existirían réplicas de las partículas habituales que tendrían una masa más alta, dada por n/R, con n cualquier número entero positivo. Al ser el radio R de las dimensiones adicionales tan pequeño, dichas réplicas tendrían una masa muy, muy grande y, por lo tanto, no resultaría posible producirlas en los aceleradores existentes. En el caso de la teoría de cuerdas, tenemos seis dimensiones extra cuya geometría es bastante más complicada que seis círculos. En general, si queremos que la teoría se parezca a bajas energías lo más posible al mundo observado, las seis dimensiones adicionales deben de corresponder a espacios con ciertas propiedades matemáticas muy especiales, que no describiremos aquí.
CORTESÍA DEL AUTOR
ESCALAS DE ENERGÍA
Es conveniente recordar las unidades de energía que estamos considerando. Una unidad de energía habitual en la física de partículas elementales es el GeV (gigaelectronvoltio). La teoría de la relatividad nos dice que hay una relación entre masa y energía, y que masa y energía se pueden transformar una en otra. Es consecuencia de la relación de Einstein, E = mc2, donde E es la energía de una partícula, m su masa y c la velocidad de la luz. Así, una energía de un GeV correspondería a la energía que se obtendría en un proceso (imaginario) en el que un átomo de hidrógeno se desintegrase en pura energía. La energía que será capaz de concentrar el acelerador LHC en cada interacción dentro del detector es del orden de 104 GeV. Volviendo a la teoría de cuerdas, hay dos escalas de energía fundamentales en la teoría: la escala de la cuerda Mcuerda y la de las dimensiones extra MKK. La primera mide la escala por encima de la cual la estructura extensa de la cuerda se revela; la segunda, la energía necesaria para percibir la existencia de dimensiones extra. El cociente entre escalas está relacionado con la constante de la gravitación de Newton. Joel Scherk y John Schwarz, los primeros —en 1974— en considerar las cuerdas para una teoría unificada, supusieron que ambas escalas de energía eran iguales; era la elección más natural. Si es así, la escala de la cuerda será del orden de 1018 GeV, unos mil billones de veces mayor que las energías que obtendremos en el acelerador LHC. Por lo tanto, la teoría de cuerdas no se podría comprobar de manera directa en aceleradores presentes o futuros. Sin embargo, Nima Arkani-Hamed, Savas Dimopoulos y Gia Dvali demostraron en 1998 que la escala de la cuerda Mcuerda puede ser en principio relativamente baja, incluso accesible al
InvestigacionyCiencia.es
s ne sio en im D
Esquema de un espacio con una quinta dimensión: En cada punto de las dimensiones habituales hay otra dirección posible, correspondiente a una quinta dimensión más allá de las tres dimensiones espaciales habituales y el tiempo. Esta quinta dimensión está curvada sobre sí misma en un círculo de radio R de tamaño extraordinariamente pequeño, lo cual hace a esta dimensión invisible. El tamaño de la dimensión extra es mucho más pequeño que las distancias exploradas en los aceleradores hasta ahora existentes.
R
Quinta dimensión
uales habit
R